Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Стал известен приговор айтишнику из Wargaming, которого судили по восьми статьям. Одна из них — «расстрельная»
  2. В список «экстремистских формирований» внесли еще две организации
  3. Беларусы вместо двух билетов на рейс купили четыре. Решили не возвращать, а взять больше чемоданов. Что на это ответила «Белавиа»?
  4. Пропавшая с 150 тысячами долларов Мельникова уже после исчезновения купила две квартиры в Минске. Вот что узнало «Зеркало»
  5. «Должны были посадить, если бы ей чудом не удалось выехать». Рита Дакота рассказала, за что силовики задерживали ее маму в Беларуси
  6. Гостелеканал спросил у жителей Гродно, поддержат ли они блокировку YouTube. Участники опроса были единодушны
  7. Беларус в Threads задался вопросом, почему в деревнях дома красили в желто-голубой цвет, — версии вас удивят
  8. Пропагандист: В Беларуси начинают бороться с «теневыми тунеядцами» — людьми, которые ходят на работу, платят налоги, но делают очень мало
  9. «Небо оживает». Над Беларусью «стали замечать» самолеты европейской страны
  10. «Нам нужны все граждане». Отказ от беларусского паспорта в эмиграции обойдется в 400 евро, но может и не получиться — узнали подробности
  11. Лукашенко обрушился с критикой на руководство крупной компании, которую ранее национализировали
  12. Следы этой истории вы найдете в своей аптечке. Рассказываем об одном из самых загадочных массовых убийств Америки
  13. «Ненавижу». Россиянин, который поджег авто беларусского генерала, — о заключении, пытках от Кубракова и о том, зачем пошел на войну
  14. YouTube в Беларуси заблокируют? Вспоминаем, как дважды это уже случалось (и что говорили эксперты)
  15. Собираются ввести новшества в отношении недвижимости
  16. Что будет с долларом после разгона цены на нефть выше 100 долларов? Прогноз курсов валют
  17. «Вот это „Жди меня“ премиум». Полька искала родных в Беларуси для генеалогического древа — в соцсетях их нашли за несколько дней
  18. В Беларуси меняют правила перепланировки жилья. С чем станет проще?


«Искусственный интеллект может привести к исчезновению человечества», — с таким апокалиптическим предупреждением выступила группа руководителей и ученых из технологических компаний, включая OpenAI и Google DeepMind, пишет Русская служба Би-Би-Си.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

«Уменьшение риска исчезновения человечества из-за развития искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, такими как пандемии и ядерная война», — говорится в заявлении, опубликованном на сайте Центра безопасности ИИ, некоммерческой организации из Сан-Франциско.

Это — весь текст заявления, которое его авторы сознательно сделали максимально коротким. «Мы не хотели публиковать список из 30 возможных рекомендаций, чтобы <…> не разбавлять нашу мысль», — сказал исполнительный директор организации Дэн Хендрикс.

Заявление уже подписали более 350 руководителей, исследователей и инженеров в области искусственного интеллекта, в том числе Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и Дарио Амодей из Anthropic.

Подписи под документом также поставили получившие премию Тьюринга за свою работу над нейронными сетями Джеффри Хинтон и Йошуа Бенджио, которых часто называют крестными отцами ИИ. В начале мая Хинтон даже уволился со своего поста в Google, чтобы получить возможность свободно говорить о потенциальном вреде технологий без оглядки на профессиональную этику.

Все не так страшно?

Однако далеко не все эксперты по искусственному интеллекту разделяют эти алармистские настроения. Например, Ян Лекун, вице-президент и ведущий AI-исследователь корпорации Meta, считает их сильно преувеличенными. «Я думаю, что масштабы проблемы уравнивания ИИ [с человеческим интеллектом] были смехотворно преувеличены, а наша способность решить ее — сильно недооценена», — написал он.

С ним согласны и другие эксперты, которые полагают, что страхи перед ИИ, во-первых, нереалистичны, а во-вторых, отвлекают внимание от реальных проблем. «Ныне существующий ИИ не настолько развит, чтобы подобные опасения материализовались», — сказал Би-би-си профессор Принстонского университета Арвинд Нараянан.

Разговоры о том, что ИИ может либо радикально и к лучшему изменить человеческое общество, либо его полностью уничтожить, существовали в научной фантастике на протяжении последних 80 лет. Но только в последнее время технологии вышли на новый уровень. Теперь ИИ может писать песни, генерировать реалистичные изображения, создавать компьютерный код, писать киносценарии и так далее. Непосредственно на сегодняшний день проблемы, создаваемые ИИ, в значительной степени касаются нарушения авторских прав и конфиденциальности.

Старшая научная сотрудница Оксфордского института этики в области искусственного интеллекта Элизабет Реньерис сказала Би-би-си, что ее больше беспокоит то, что «развитие ИИ может увеличить масштабы автоматизированного принятия решений… и привести к распространению дезинформации».

Не первое предупреждение

Заявление, опубликованное на сайте Центра безопасности ИИ, — не первое предупреждение подобного рода. В марте ведущие фигуры в области разработки ИИ, включая Илона Маска и основателя Apple Стива Возняка, уже призывали притормозить исследования в этой области, пока не будут разработаны и применены надежные протоколы безопасности.

Они опубликовали открытое письмо, в котором подробно описывали потенциальные, с их точки зрения, риски, которыми может сопровождаться развитие искусственного интеллекта. Среди них были названы распространение дезинформации, сокращение рабочих мест, в том числе и в тех областях, которых приносят радость творчества, и в целом — возможность полной потери контроля над развитием человеческой цивилизации.

Законодательные рамки

Законодатели ЕС уже разрабатывают европейский закон об искусственном интеллекте, аналогичные ограничения рассматриваются и в США.

Европейские законодатели хотят разработать такие законы, которые бы не допускали дискриминационного применения ИИ, например при приеме на работу, или потенциально могли бы привести к риску для здоровья и безопасности граждан.

При этом скептики считают, что любые ограничения бессмысленны до тех пор, пока они не получат глобального распространения. Учитывая, что сама природа интернета не предполагает соблюдения границ, опасные проявления ИИ, разработанные, например, в России, или Китае, все равно могут привести к негативным последствиям для граждан Европы или США.

ИИ — шпаргалки

Менее апокалиптические, но вполне реальные нарекания вызывает чатбот ChatGPT, который способен писать тексты и давать точные ответы на заданные вопросы.

В его преимуществах убедились, например, студенты и школьники, хотя и преподаватели тоже не дремлют и уже в ряде случаев научились распознавать работы, написанные искусственным интеллектом.

По словам американского юриста Тайлера Майклза, «непосредственной угрозой являются не роботы-убийцы, а работоубийцы. Особому риску подвергаются те, кто зарабатывает на жизнь, отвечая на телефонные звонки, работая за прилавком или иным образом обслуживая клиентов».

Впрочем, эта эволюция идет уже давно, и ее вряд ли удастся остановить, тогда как авторов заявления беспокоят более серьезные проблемы. С другой стороны, искусственная приостановка научных исследований еще ни разу не увенчивалась успехом. Скорее всего, наиболее разумным решением будет законодательное регулирование.