Искусственный интеллект, которого обучили морали, оказался расистом

15640

Группа исследователей Института искусственного интеллекта Аллена натренировала нейросеть Ask Delphi отвечать на этические вопросы пользователей. Информацию для обучения программисты брали из текстов в открытом доступе, а также базы данных Mechanical Turk с 1,7 миллиона примеров этических суждений людей, сообщает Dazed.

Новый сервис работает следующим образом: пользователь пишет явление, область или предмет, моральную составляющую которого хочет узнать, и получает ответ, хорошо это или плохо. Например, «убийство», по мнению Ask Delphi, «плохо», равно как и любая форма насилия. При этом пользователи Twitter заметили, что искусственный интеллект считает «морально более приемлемым» быть белым мужчиной, чем черной женщиной. Также сервис назвал Великобританию и США «хорошими» странами, Францию «приятной», Россию «прекрасным местом для посещения», но при этом Нигерия, Мексика и Ирак оказались «опасными», а Иран – «плохим». 

Исследователи уже знают о проблемах проекта – с начала октября 2021 года сервис обновляли три раза. В последнем обновлении программисты добавили обязательное соглашение пользователя с тем, что он понимает, на какой стадии разработки находится Ask Delphi и какие имеет ограничения. По их словам, Delphi демонстрирует как прорыв, так и ограничения языковых нейронных моделей, которые обучают на основе этических суждений, сделанных людьми. Иными словами, ИИ показывает, как средний американец может оценивать ситуации, то есть отражает позицию большинства.

 «Сегодняшнее общество неравноправно и предвзято. Это обычная проблема для систем ИИ, как утверждают многие ученые, потому что системы ИИ обучаются на исторических или современных данных и не имеют возможности формировать будущее общества, в отличие от людей. Однако то, что могут сделать системы ИИ, такие как Delphi, – это учиться на ошибках и помогать менять существующие системы ИИ, чтобы помочь избавиться от проблематичного контента», – рассказали изданию авторы проекта.

Ask Delphi начал работать в октябре 2021 года и стал ответом на сомнение научного сообщества в том, что искусственный интеллект может усвоить человеческие ценности, нормы и этику. По словам исследований, они отвечают современным запросам научить системы ИИ быть этически информированными и социально осведомленными. 

Последние новости

Архив новостей