Поддержать команду Зеркала
Беларусы на войне
  1. У беларуски погиб на рабочем месте единственный сын. Она потребовала от его работодателя 1 млн рублей компенсации, сколько назначил суд
  2. До 15 лет лишения свободы. Юрист объяснил, почему слова Эйсмонт о Статкевиче могут повлечь уголовные дела против Лукашенко
  3. После потери доступа к терминалам Starlink Россия изменила схему применения дронов — ISW
  4. Беларусскоязычное издательство остановило работу. Сообщается о задержаниях
  5. «Попался как щука в невод». Аналитик о том, почему не сработала замена Лукашенко на Рыженкова для участия в «Совете мира»
  6. Делегация официального Минска вышла из зала во время речи Тихановской на заседании ПА ОБСЕ в Вене, Азербайджан этот демарш не поддержал
  7. Где ждать +12°C? Рассказываем, какой будет погода с 23 февраля по 1 марта
  8. «Новых не будет». Пропагандист рассказал о политзаключенных, для освобождения которых нужны «особые условия»


/

На прошлой неделе американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini. Однако, как показали тесты, обе модели, по-видимому, сделали значительный шаг назад: они склонны придумывать — или галлюцинировать — сильнее, чем их более ранние версии, пишет Naked Science.

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.

Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда как o4-mini показала еще более худший результат — 48%.

Хуже того, специалисты компании, похоже, не до конца понимают причины проблем. Согласно их техническому отчету, «необходимы дополнительные исследования, чтобы понять причину» этих ошибок.