«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

«Угроза всему человечеству»: Маск, Возняк и более 1000 экспертов призвали остановить обучение нейросетей, превосходящих GPT-4

29 марта 2023 г.

Олег Крапивин

Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI.

В открытом письме они предупредили о потенциальных рисках для общества.

Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.

В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.

«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.

Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.

С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.

По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.


Теги статьи:
Распечатать Послать другу
comments powered by Disqus
Юрий Борисов объявил о создании к 2033 году российской орбитальной станции и представил график работ, под которые еще в марте было выделено …
Облапошил бюджет, раскаялся и снова иди рули бюджетными деньгами?
В 2017 году нидерландский предприниматель Йоррит Фаассен, бывший зять Владимира Путина ударил полицейского по голове, когда тот пытался кого…
Находящийся в розыске бизнесмен Борис Ушерович из-за границы наладил схему по поставке в обход санкций в Россию телекоммуникационного оборуд…
Неужели весь проект по строительству 11 терминалов от «Логопера» может оказаться аферой, а хозяин компании Александр Кахидзе мог водить связ…
Олигарху Виктору Харитонину дадут подзаработать на госбольницах Башкирии? Госмедицину ставят на коммерческие рельсы с конечной станцией за г…
loading...
Загрузка...
loading...
Загрузка...
Все статьи
Последние комментарии
Наши опросы
Как вы считаете, санкции влияют на обычных граждан России больше, чем на политическую элиту?






Показать результаты опроса
Показать все опросы на сайте