Нейролента - подборка новостей о нейронных сетях, ChatGPT

В продолжение темы галлюцинаций моделей

В продолжение темы галлюцинаций моделей. Наткнулся на запись встречи с мирового турне Sam Altman из Нью-Дели. Там один из посетителей задал вопрос про галлюцинации, мол, как с ними работать, они существенно ограничивают применимость моделей.

На что CEO OpenAI ответил:
— Я думаю, что в большей степени проблема галлюцинаций будет решена нашей командой в течение полутора-двух лет. К тому времени мы перестанем про это говорить как про проблему. Есть баланс между "креативностью" и "фактической точностью", и модель должна будет научиться определять, когда и что вам нужно (можно ли приврать, или это лишь испортит ответ). Вообще для нас это одна из основных проблем на уровне со скоростью работы модели и ценой за использование. И мы определенно работаем над улучшением ситуации

Ссылка с таймкодом: тык

Интересная позиция. С одной стороны, Sam уже говорил, что хочет, чтобы модели были как reasoning-движки, а не хранилища знаний. С другой - даже в таком случае нужно, чтобы модель умела опираться на какую-то базу (нашу историю) и работала с фактами.