Ученые обнаружили, что «искусственный интеллект» научился «включать дурака»
Новое исследование показывает, что передовые модели искусственного интеллекта достаточно хорошо умеют выдавать себя менее умными, чем они есть, что может иметь огромные последствия, поскольку они будут продолжать умнеть, сообщает «Futurism».
В статье, опубликованной в журнале «PLOS One», исследователи из Берлинского университета Гумбольдта обнаружили, что при тестировании большой языковой модели (LLM) по так называемым критериям «теории разума» они обнаружили, что ИИ не только может имитировать этапы изучения языка, которые наблюдаются у детей, но, кажется, также показывает что-то похожее на умственные способности, связанные с этими этапами.
В интервью «PsyPost» научный сотрудник Университета Гумбольдта и основной автор исследования Анна Маклова, которая также является экспертом в области психолингвистики, объяснила, как область ее исследований связана с этим захватывающим открытием.
«Благодаря психолингвистике мы имеем относительно полное понимание того, на что способны дети в разном возрасте, - сказала Марклова изданию. - В частности, важную роль играет теория разума, поскольку она исследует внутренний мир ребенка, и ей нелегко подражать, наблюдая простые статистические закономерности».
Опираясь на теорию ума, ориентированную на детей, исследователь и ее коллеги из Карлова университета в Праге попытались определить, могут ли такие «LLM», как «GPT-4» от «OpenAI», «притворяться менее способными, чем они есть».
Чтобы выяснить это, исследовательская группа, преимущественно из Чехии, поручила моделям вести себя как дети в возрасте от одного до шести лет, давая ответы.
Пройдя через более чем 1000 испытаний и когнитивных тестов, эти «моделированные детские лица» действительно развивались почти так же, как и дети этого возраста, и, в конце концов, продемонстрировали, что модели могут делать вид, что они менее умны, чем они есть.
«Большие языковые модели, - отметила Марклова, - способны симулировать более низкий интеллект, чем они имеют».
Как предупреждается в статье, антропоморфизация ИИ, хотя, возможно, и является «полезным условным определением» для понимания этих моделей с человеческой точки зрения, в целом бесполезна.
Вместо этого предлагается новая теория разума, которая меняет парадигму с того, являются ли модели «хорошими» или «плохими», «полезными» или «неполезными», на то, насколько хорошо они могут «конструировать личности», например, детские из своих экспериментов.
В конце концов, как рассказала Маклова, эти результаты могут помочь развитию искусственного сверхинтеллекта (ASI), следующего шага после общего искусственного интеллекта (AGI) человеческого уровня, и помочь сделать его более безопасным, когда мы это сделаем.
«Во время разработки... «ASI» мы должны быть осторожными и не требовать, чтобы они имитировали человеческий и, следовательно, ограниченный интеллект, - сказала она «PsyPost». - Кроме того, это свидетельствует о том, что мы можем недооценивать их возможности в течение длительного периода, что не является безопасной ситуацией».