Научный сотрудник НИУ ВШЭ — Санкт-Петербург Растям Алиев изучил склонность нейросетей к так называемым галлюцинациям — генерации вымышленных фактов — и предложил рассматривать этот эффект через призму психических расстройств.
В исследовании указывается, что поведение больших языковых моделей во время обработки сложных запросов имеет сходство с симптомами шизофрении. По оценке ученого, нейросети нередко смешивают достоверную информацию с вымышленной, создавая искаженную картину реальности. Этот эффект он описывает как формирование «метасимулякра».
Отмечается, что искусственный интеллект не способен самостоятельно выявлять собственные ошибки. Более того, модели часто уверенно настаивают на неверных выводах, что усиливает риск распространения ложной информации.
В связи с этим исследователь считает необходимым критически относиться к ответам нейросетей и обязательно перепроверять полученные данные, особенно при использовании ИИ в аналитических и научных задачах.
При этом Алиев не исключает, что в перспективе возможно создание нейросетей, лишенных склонности к галлюцинациям. По его мнению, это станет реальным при более глубоком понимании природы данного феномена и принципов работы языковых моделей.
Понравилась новость? Добавьте в избранное Дзен Новости, присоединяйтесь к нашим сообществам ВКонтакте, ОК и нашему Telegram-каналу.



