Нейросеть предупредила об опасности искусственного интеллекта

Ученые Оксфордского университета испытали нейросеть с 530 миллиардами параметров. Она предупредила, что искусственный интеллект может быть опасен для людей.

В 2021 году компании Microsoft и NVIDIA представили нейросеть на базе языковой модели Megatron-Turing NLG. Она вмещает в себя все данные англоязычной «Википедии», несколько миллионов британских новостных материалов и 38 гигабайтов обсуждений на Reddit.

«Нейросеть натренирована на таком количестве текстового материала, который никто из людей не смог бы освоить за всю жизнь», — рассказал один из сотрудников Оксфорда.

Во время недавних дебатов в оксфордском университете Megatron Transformer сказал, что искусственный интеллект никогда не будет этичным. Этот инструмент будет использоваться как с благими намерениями, так и во вред. Например, ИИ будет знать о человеке абсолютно все. И единственный способ избежать гонки вооружений — это полностью отказаться человечеству от использования искусственного интеллекта.

Ученые из Оксфорда также отметили, что ситуации, описанные моделью, основаны на страхах самих людей, которые программа вычитала на просторах интернета. 

Если ты увидел что-то интересное, выиграл грант или стал очевидцем события, расскажи нам об этом:
Portal072@gmail.com
8 (3452) 68-34-55 /
VK / Telegram

Оцените материал: