И вот что мужчина с этим делает
Posted: Tue Jan 28, 2025 4:21 am
Вы когда-нибудь задумывались, почему у большинства роботов-помощников (таких как Alexa или Siri) женский голос? Это не совпадение. Не случайно и то, что алгоритм учится ассоциировать изображения предметов домашнего обихода с женщинами. Или что инструменты искусственного интеллекта оценивают фотографии женщин как более сексуально намекающие, чем фотографии мужчин . «Алгоритмы — это не что иное, как мнения, зашифрованные в коде», — говорит Кэти О’Нил. Очевидно, что предвзятость тех, кто программирует и проектирует эти инструменты, отражается на технологиях.
В других случаях проблема не столько в предвзятости изучение amazon: главное программистов, сколько в нашей собственной истории. Джемма Галдон, аудитор алгоритма и основатель компании Eticas Research and Consulting, объясняет, что, например, чтобы решить, кому дать ипотеку, алгоритм будет опираться на исторические данные: «Исходя из этих данных, у мужчин будет больше возможностей, чем у женщин». потому что исторически нам предоставляли меньше прав и потому что система присваивает нам профиль риска».
Искусственный интеллект и инклюзивность
В 2018 году Amazon пришлось отказаться от инструмента искусственного интеллекта, который он использовал для оптимизации процессов рекрутинга. Проблема заключалась в том, что алгоритм обучался в основном на мужских резюме и научился расставлять приоритеты в них и наказывать те, которые содержали слово «женщина».
Наши данные также отражают нашу историю несправедливости по отношению к женщинам и другим меньшинствам. И эту проблему решить сложнее. «Мы не можем исправить алгоритмы, вводя более качественные данные, потому что лучших данных не существует», — говорит журналист по искусственному интеллекту Мередит Бруссард. Технологии не могут исправить несправедливость системы. «Основная проблема — общество», — говорит Бруссард.
В других случаях проблема не столько в предвзятости изучение amazon: главное программистов, сколько в нашей собственной истории. Джемма Галдон, аудитор алгоритма и основатель компании Eticas Research and Consulting, объясняет, что, например, чтобы решить, кому дать ипотеку, алгоритм будет опираться на исторические данные: «Исходя из этих данных, у мужчин будет больше возможностей, чем у женщин». потому что исторически нам предоставляли меньше прав и потому что система присваивает нам профиль риска».
Искусственный интеллект и инклюзивность
В 2018 году Amazon пришлось отказаться от инструмента искусственного интеллекта, который он использовал для оптимизации процессов рекрутинга. Проблема заключалась в том, что алгоритм обучался в основном на мужских резюме и научился расставлять приоритеты в них и наказывать те, которые содержали слово «женщина».
Наши данные также отражают нашу историю несправедливости по отношению к женщинам и другим меньшинствам. И эту проблему решить сложнее. «Мы не можем исправить алгоритмы, вводя более качественные данные, потому что лучших данных не существует», — говорит журналист по искусственному интеллекту Мередит Бруссард. Технологии не могут исправить несправедливость системы. «Основная проблема — общество», — говорит Бруссард.