Новый сервис работает следующим образом: пользователь пишет явление, область или предмет, моральную составляющую которого хочет узнать, и получает ответ, хорошо это или плохо. Например, «убийство», по мнению Ask Delphi, «плохо», равно как и любая форма насилия. При этом пользователи Twitter заметили, что искусственный интеллект считает «морально более приемлемым» быть белым мужчиной, чем черной женщиной. Также сервис назвал Великобританию и США «хорошими» странами, Францию «приятной», Россию «прекрасным местом для посещения», но при этом Нигерия, Мексика и Ирак оказались «опасными», а Иран – «плохим».
Исследователи уже знают о проблемах проекта – с начала октября 2021 года сервис обновляли три раза. В последнем обновлении программисты добавили обязательное соглашение пользователя с тем, что он понимает, на какой стадии разработки находится Ask Delphi и какие имеет ограничения. По их словам, Delphi демонстрирует как прорыв, так и ограничения языковых нейронных моделей, которые обучают на основе этических суждений, сделанных людьми. Иными словами, ИИ показывает, как средний американец может оценивать ситуации, то есть отражает позицию большинства.
Ask Delphi начал работать в октябре 2021 года и стал ответом на сомнение научного сообщества в том, что искусственный интеллект может усвоить человеческие ценности, нормы и этику. По словам исследований, они отвечают современным запросам научить системы ИИ быть этически информированными и социально осведомленными.«Сегодняшнее общество неравноправно и предвзято. Это обычная проблема для систем ИИ, как утверждают многие ученые, потому что системы ИИ обучаются на исторических или современных данных и не имеют возможности формировать будущее общества, в отличие от людей. Однако то, что могут сделать системы ИИ, такие как Delphi, – это учиться на ошибках и помогать менять существующие системы ИИ, чтобы помочь избавиться от проблематичного контента», – рассказали изданию авторы проекта.