Неверная информация от ИИ стала легко выявляться
Московские психологи и математики совершили прорыв в борьбе с «синдромом фантазёра» у нейросетей. Сотрудники МГППУ разработали алгоритмы, которые безжалостно вычисляют моменты, когда умные боты начинают выдавать уверенную, но абсолютно ложную информацию. Иными словами, создан детектор правды для ChatGPT и его собратьев.
Разработка работает как профессиональный прокурор: один алгоритм подбирает «вопросы с подвохом», а второй оценивает, насколько убедительно нейросеть врёт. Учёные оцифровали саму суть обмана — они рассматривают запросы и ответы как точки в математическом пространстве. Чем ближе «точка лжи» к правде, тем опаснее галлюцинация.
Теперь промпт-инженеры могут вздохнуть спокойно: проверка достоверности ответов перестаёт быть шаманством и становится точной наукой. Инструмент обещают передать тем, кто «лечит» большие языковые модели.








