Видео-презентация Ecology
Концепция Экопоселения

Маск и Возняк призвали приостановить обучение систем ИИ из-за риска для общества

Илон Маск, Стив Возняк и более 1000 экспертов призвали на полгода приостановить обучение систем искусственного интеллекта более мощных, чем GPT-4, чтобы понять, как их контролировать. Гонка в создании «мощных цифровых умов» грозит тем, что они заменят людей, предупредили они в открытом письме

Глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute). 

Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.

Американская OpenAI представила новую версию языковой модели с генеративным искусственным интеллектом GPT-4 в марте 2023 года. На базе этой модели работает многозадачный чат-бот ChatGPT, который демонстрирует производительность на уровне человека в различных профессиональных и академических тестах и способен отвечать почти на любые вопросы пользователей и писать тексты по заданию. 

Исполнительный директор OpenAI Сэм Альтман не подписал письмо, сообщил Reuters представитель Future of Life Institute. При этом сама OpenAI недавно заявила, что, прежде чем приступать к обучению будущих систем, следует согласиться ограничить скорость вычислений, используемых для создания новых моделей.

В открытом письме подчеркивается, что сегодня даже создатели «мощных цифровых умов» не в состоянии понимать их или надежно контролировать. При этом современные системы искусственного интеллекта уже становятся конкурентоспособными в решении общих задач, способны «наводнить информационные каналы пропагандой и неправдой» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы письма.

Ранее, 27 марта, полиция ЕС — Европол предупредил о потенциальном неправомерном использовании таких передовых систем искусственного интеллекта, как ChatGPT в фишинге, дезинформации и киберпреступности.

«Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», — объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, «это осложняет защиту общества от вреда, который может материализоваться».

Читайте так же

Большая часть нашей планеты покрыта океанами. Там обитает невероятное количество разных биологических существ, многих из...
21
Массаж является одним из старейших исцеляющих искусств: китайские записи, датируемые 3000 лет, документируют его испол...
37561
Каждый день наш организм встречается с огромным множеством микроорганизмов, многие из них не так уж безобидны. Вирусы ...
12764
Более 8 лет назад Никита Цеханович присмотрел на окраине живописной деревни деревянную избушку. Купил ее всего за 300 до...
221