Поддержать команду Зеркала
Беларусы на войне
  1. В ближайшие три недели может пройти встреча Зеленского с Путиным — спецпосланник Трампа
  2. Украинские силы освободили значительные территории на юге, их успехи совпали с ограничением Starlink у РФ — ISW
  3. Где ждать +12°C? Рассказываем, какой будет погода с 23 февраля по 1 марта
  4. В Украине задержали подозреваемую в совершении теракта во Львове — Зеленский
  5. Об отношениях одного классика литературы из Беларуси нам десятилетиями рассказывали неправду, идеализируя его. Что же было на самом деле
  6. Умер экс-политзаключенный Денис Соколовский, проходивший по делу «Пресс-клуба»
  7. Беларусскоязычное издательство остановило работу. Сообщается о задержаниях
  8. Рекордный кадровый голод. В Беларуси — максимум вакансий за годы независимости


/

На прошлой неделе американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini. Однако, как показали тесты, обе модели, по-видимому, сделали значительный шаг назад: они склонны придумывать — или галлюцинировать — сильнее, чем их более ранние версии, пишет Naked Science.

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.

Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда как o4-mini показала еще более худший результат — 48%.

Хуже того, специалисты компании, похоже, не до конца понимают причины проблем. Согласно их техническому отчету, «необходимы дополнительные исследования, чтобы понять причину» этих ошибок.