Предвзятость искусственного интеллекта - Разные (общественные) новости - eMule-Rus.Net Форум муловодов

Перейти к содержимому



- - - - -

Предвзятость искусственного интеллекта


  • Вы не можете ответить в тему
  • Вы не можете создать новую тему
Сообщений в теме: 4

#1 OFFLINE   Ramerup

 

    сова упоротая..

  • [Хранители]
  • сообщений: 20 058
    Последний визит:
    Сегодня, 10:33
  • Пол:Мужчина
  • Откуда:Санкт-Петербург
 

Отправлено 22 Декабрь 2018 - 17:03

Изображение


14.12.2018 / Финист Фролов
ФинФронт http://finfront.ru/2018/12/14/ai-bias/


Казалось бы, искусственный интеллект должен работать как бесчувственная машина и бесстрастный судья. Однако уже сейчас мы массово сталкиваемся с предвзятостью ИИ при работе с людьми, и в перспективе это может привести к ужасающим последствиям:

https://www.cnbc.com...telligence.html

Искусственный интеллект всё шире охватывает мир и проникает во все сферы, угрожая вытеснить людей из многих профессий. Но есть ещё одна связанная с ИИ опасность, которая может привести к серьёзным проблемам раньше, чем мы думаем. Это предвзятость ИИ (англ. AI bias).

С политкорректной точки зрения, данное явление имеет место, когда программы принимают решение на основе ошибок или неполных данных, дискриминируя отдельные группы людей. Или даже алгоритмы и данные могут быть в порядке, однако дискриминация из реального мира переходит в ИИ.

Подобное происходило и продолжает происходить с целым рядом технологий на основе ИИ.

К примеру, недавно возник скандал, связанный с тем, что программы по распознаванию лиц плохо распознают людей определённой расовой принадлежности в сочетании с половыми признаками.

Так, например, 35% фотографий темнокожих женщин были распознаны с ошибками, согласно исследованию Массачусетского технологического института. Для сравнения, в случае светлокожих мужчин ошибки составили лишь 1%.

Другой пример, о котором мы ранее писали. Программы по подбору кадров предпочитают выбирать мужчин, потому что, как правило, именно мужчины чаще занимают те или иные должности (особенно высокопоставленные) согласно материалам накопленных баз данных:

Робот-кадровик Amazon дискриминирует женщин
http://finfront.ru/2...-against-women/

Эксперты для решения этих проблем предлагают расширять круг данных и совершенствовать алгоритмы. Много говорится о том, что при создании подобных ИИ-систем с программистами должны активнее работать гуманитарии (социологи, правозащитники и так далее).

Особенно страшно становится, когда предвзятый ИИ начинает решать вопросы, связанные со свободой, а то и жизнью человека.

В 2016 году разразился ещё один скандал, когда выяснилось, что программа COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, «коррекционное управление профилированием обвиняемых на предмет альтернативных наказаний»), используемая судьями в некоторых штатах США для помощи в вынесении приговоров, также проявляла тенденциозность в отношении к отдельным расам.

Система использовала машинное обучение и архив исторических данных для предсказания вероятности, с которой преступники, совершившие насильственное преступление, совершат его ещё раз. И почему-то для чернокожих вероятность стать рецидивистами оценивалась сравнительно высоко.

Потенциально, в недалёком будущем автономные боевые роботы будут самостоятельно принимать решение о том, убивать человека или сохранять ему жизнь, и здесь будет очень важно правильно определить цель (та же технология распознавания изображений), а затем верно оценить исходящую от неё опасность.

Проблема есть, и она реальная. Но, всё-таки, едва ли её можно решить увеличением количества данных для обучения ИИ.

Самое страшное, что электронные экспертные системы будут действовать невидимым для человека образом. Если ИИ решит, что по статистике нужно, например, дискриминировать представителей этнических меньшинств или левшей, и, например, выдавать им кредиты с повышенной процентной ставкой или не брать их на конкретную работу — то выявить дискриминацию такого рода может оказаться крайне сложно.

Человечество начнёт решать эту проблему только после того, как натолкнётся на несколько очень масштабных скандалов.

****


в дополнение к этому:
Пенсионный фонд. Сбой системы или воровство?

http://forum.emule-r...showtopic=59868

#2 OFFLINE   mailstream

 

    вакуумсферошушпанцер

  • Модераторы
  • сообщений: 1 330
    Последний визит:
    18 окт 2020 22:28
  • Пол:Мужчина
 

Отправлено 22 Декабрь 2018 - 18:40

нет, похоже проблема в том, что алгоритм работает правильно.

35% темнокожих женщин выглядят как мужчины.
для чернокожих вероятность стать рецидивистами высока
с определенными профессиями мужчина справляется лучше
выдача кредита цыгану в 99% случаев не имеет смысла
если статистически доказано, что левши, например, хуже справляются с управление истребителем, то подбор будущих пилотов будет это учитывать.

люди не одинаковы.

#3 OFFLINE   NeByvalyi

 

    Чистильщик

  • [Хранители]
  • сообщений: 9 636
    Последний визит:
    Сегодня, 02:30
  • Пол:Мужчина
  • Откуда:Нью-Васюки
 

Отправлено 22 Декабрь 2018 - 19:21

Просмотр сообщенияmailstream сказал:

проблема в том, что алгоритм работает правильно
полностью согласен, особенно насчет негритянской преступности и цыган

Просмотр сообщенияmailstream сказал:

люди не одинаковы
только полковник Кольт сделал попытку всех уравнять ))

А что касается темнокожих женщин, включая всякие переходные формы типа мулаток, метисок и прочих ядрёных латино-карибских смесей - это вообще сложно.. особенно для китайцев и японцев. И наоборот. Это я к тому, что, наверное, надо учитывать и расовую принадлежность программистов ИИ.


#4 OFFLINE   mikbar

 

    Знаток

  • [Хранители]
  • сообщений: 5 873
    Последний визит:
    24 мар 2024 23:06
  • Пол:Мужчина
  • Откуда:Санкт-Петербург, Россия
 

Отправлено 22 Декабрь 2018 - 19:24

Просмотр сообщенияRamerup сказал:

Программы по подбору кадров предпочитают выбирать мужчин, потому что, как правило, именно мужчины чаще занимают те или иные должности (особенно высокопоставленные) согласно материалам накопленных баз данных:

Угу, а может просто потому, что  для этой профессии лучше подходят мужчины? Что и говорит накопленный опыт?

Просмотр сообщенияmailstream сказал:

люди не одинаковы.

И, добавлю, это нормально.

#5 OFFLINE   mailstream

 

    вакуумсферошушпанцер

  • Модераторы
  • сообщений: 1 330
    Последний визит:
    18 окт 2020 22:28
  • Пол:Мужчина
 

Отправлено 23 Декабрь 2018 - 11:15

Просмотр сообщенияNeByvalyi (22 Декабрь 2018 - 19:21) писал:

только полковник Кольт сделал попытку всех уравнять ))
мне кажется, что в первоисточнике было "Эйб Линкольн дал всем свободу, а Сэм Кольт уравнял шансы" ;-)

Просмотр сообщенияNeByvalyi (22 Декабрь 2018 - 19:21) писал:

А что касается темнокожих женщин...
для этого нужно читать исходник. а в исходнике, если верно помню, говорилось о том, что при разделении цвета кожи на шесть фенотипов, минимальная ошибка при определении мужчин из фенотипа 1, т.е. бледнолицых, максимальная у женщин из фенотипа 6, т.е. чернокожих.

ИИ это не совсем программа. это скорее автоматизированная база данных, которая обучается на определенном наборе. и тут наступает кульминация своего рода.
где то 1 раз на 1000000 я тоже не готов утвердительно обозначить пол увиденного человека. хотя предполагаю, что мои навыки идентификации значительно превосходят ИИ.
вероятнее всего, исходную базу придется переделывать а ИИ переучивать, потому что в условиях ночной съемки цвет кожи слабо идентифицируем.
возможно, затык в последовательности раса-пол.
потому что азиатский мужчина может выглядеть более женственным чем африканская женщина.
но внесение в ИИ определения расы  как точки отсчета будет еще более резонансным. представляешь, "ИИ сегментирует человечество на расы". вот это настоящий расизм.
а без такой сегментации, как точки отсчета к которой будут применяться соответствующие признаки пола, это тупик, ИИ будет либо африканок относить к мужикам, либо европейцев относить к женщинам.
имхо, канешн.





Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных