Какова вероятность того, что ИИ вас пранканёт?
От 3 до 27% — в таком количестве случаев языковые модели предлагают «выдуманные» ответы, целиком или частично.
К таким выводам пришли сотрудники стартапа Vectara после проведённого исследования. Они называют этот баг «галлюцинациями» — и заявляют, что избавиться от них непросто.
Среди исследуемых моделей самый низкий показатель «галлюцинаций» выявили у Chat GPT от OpenAI, всего 3%. Показатель Claude 2 от Anthropic превысил 8%, а больше всего «галлюцинаций» выдаёт Google Palm Chat — 27%.
Почему так происходит? У авторов исследования три объяснения:
✔️ в интернете полно неправдивой информации, ИИ используют её в своих ответах,
✔️ они захватывают множество результатов поиска по запросу и суммируют их в ответе,
✔️ языковые модели полагаются на математическую вероятность, то есть угадывают, и поэтому иногда ошибаются.
Опыт OpenAI показывает, что минимизировать риски появления подобных ответов реально. Сделать это можно в том числе с помощью качественной отработки обратной связи от тестировщиков.