Почему Илон Маск и более 2600 технических экспертов призывают к «немедленной паузе» в разработке ИИ

Илон Маск объединил усилия с легионом первоклассных провидцев в области искусственного интеллекта (ИИ), чтобы послать миру пугающее предупреждение. Они бьют тревогу и требуют немедленного прекращения бешеного темпа развития ИИ.

Причина их призыва к действию? Зловещие и ужасающие риски, которые ИИ представляет для общества и человечества, слишком серьезны, чтобы их игнорировать.

Оправданы ли эти опасения или это просто очередной случай нагнетания страха? Можно ли найти баланс между инновациями и безопасностью, или мы играем с огнем, запуская ИИ без надлежащего регулирования и надзора?

Сегодня немного экзистенциального беспокойства ИИ

— Илон Маск (@elonmusk), 26 февраля 2023 г.

Элон Маск и технические эксперты написали открытое письмо против угрозы ИИ

Группа видных деятелей технологической отрасли, таких как Илон Маск и Стив Возняк, сотрудничала с коалицией руководителей и исследователей ИИ, чтобы выразить озабоченность по поводу быстрого развития технологий ИИ, которые могут превзойти человеческое понимание и управляемость.

The Future of Life Institute (FOLI), известный американский аналитический центр, произвел эффект разорвавшейся бомбы своим последним письмом: открытым письмом с требованием немедленно приостановить разработку систем ИИ, более совершенных, чем GPT-4, по крайней мере на шесть месяцев.

Мы призываем лаборатории искусственного интеллекта временно приостановить обучение мощных моделей!

Присоединяйтесь к призыву FLI вместе с Йошуа Бенжио, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и еще более чем 1000 подписавшихся: https://t.co/3rJBjDXapc

Кратко о том, почему мы призываем к этому – (1/8)

— Институт будущего жизни (@FLIxrisk), 29 марта 2023 г.

В нем FOLI предупреждает о «неконтролируемой гонке» среди компаний, занимающихся искусственным интеллектом, за создание все более мощных систем, которые представляют серьезную опасность для общества и человечества, и если мы не предпримем быстрых действий, чтобы обуздать безудержный рост ИИ, мы несемся к будущему, столь же непредсказуемому, сколь и неуправляемому.

Технологический крах не за горами?

Даже создатель «Терминатора», культового фильма 1984 года, повествующего об ужасающем подъеме ИИ и его стремлении уничтожить человечество, теперь предупреждает, что мы ближе к краю технологической гибели, чем мы могли бы подумать.

В недавнем выступлении в подкасте SmartLess отмеченный наградами режиссер Джеймс Кэмерон признал, что он «весьма обеспокоен возможностью неправомерного использования ИИ», признавая надвигающуюся угрозу машин, которые могут обернуться против нас.

Хотя Кэмерон не боится, он признает, что ни одна технология никогда не оставалась неиспользованной в качестве оружия, и то же самое относится и к ИИ.

Сопротивление

Несмотря на то, что среди технических экспертов набирает обороты призыв притормозить развитие ИИ, не все убеждены, что мы балансируем на грани апокалипсиса ИИ.

Я уважаю опасения, но не собираюсь это подписывать. LLM не станут AGI. Они представляют социальные риски, как и многие другие вещи. У них также есть большой потенциал для добра. Социальное давление с целью замедления НИОКР должно относиться к биологическому оружию, ядерному оружию и т. д., а не к таким сложным случаям, как этот.

— Бен Герцель (@bengoertzel), 29 марта 2023 г.

Генеральный директор SingularityNET Бен Герцель выступил против идеи о том, что мы находимся на пороге создания роботов с искусственным интеллектом (AGI). языковые модели) не превратятся внезапно в сверхразумные машины, угрожающие самому нашему существованию.

Является ли искусственный интеллект угрозой для криптографии?

Между тем, ИИ по своей сути не представляет угрозы для криптовалюты, но его можно использовать как в положительном, так и в отрицательном смысле в контексте криптовалюты. С одной стороны, ИИ можно использовать для повышения безопасности криптовалютных транзакций путем обнаружения и предотвращения мошеннических действий.

Его также можно использовать для улучшения торговых стратегий, прогнозирования рыночных тенденций и оптимизации инвестиционных решений. С другой стороны, ИИ потенциально может использоваться для манипулирования рынками и использования уязвимостей в экосистеме криптовалюты.

Кроме того, существует риск того, что системы ИИ могут быть скомпрометированы или взломаны, что приведет к нарушениям безопасности и краже криптовалют. В целом, несмотря на то, что искусственный интеллект представляет как возможности, так и риски для индустрии криптовалют, важно обеспечить его этичное и ответственное использование.

Поскольку ИИ продолжает формировать наш мир, важно помнить, что эта технология — палка о двух концах. Хотя риски, несомненно, реальны, преимущества ИИ нельзя упускать из виду.

– Главное изображение из Film Stories

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *