Як штучний загальний інтелект (AGI) може загрожувати людству: дослідники описали всі способи

Google DeepMind опублікував ґрунтовний технічний звіт, в якому описано, як штучний загальний інтелект (AGI) може потенційно загрожувати людству — і що можна зробити, щоб запобігти цьому.

Фото ілюстративне. Джерело: suitt.edu.ua
Фото ілюстративне. Джерело: suitt.edu.ua

Про це пише Mezha.

У 108-сторінковому звіті, підготовленому під керівництвом співзасновника DeepMind Шейна Легга, ключові ризики AGI класифікуються за чотирма категоріями: зловживання, невідповідність, помилки та структурні загрози.

Тоді як громадськість все ще зосереджена на сучасних генеративних інструментах ШІ, таких як ChatGPT, дослідники DeepMind стверджують, що ми можемо побачити ШІ людського рівня вже у 2030 році, і що світ не готовий до цього.

Найбільше занепокоєння викликає зловживання — потенційна можливість використовувати AGI у зловмисних цілях. На відміну від сучасних інструментів ШІ, потужна система AGI може виявляти вразливості програмного забезпечення, розробляти біологічну зброю або організовувати масштабні кібератаки. Автори застерігають, що без надійних засобів захисту навіть одна людина, яка має доступ до таких систем, може завдати величезної шкоди.

DeepMind пропонує широке тестування перед розгортанням, посилені рівні безпеки після навчання і навіть метод, відомий як "розучування", для видалення з AGI небезпечних можливостей. Але доцільність цих засобів захисту залишається недоведеною.

Більш теоретичним, але потенційно більш й катастрофічним, є ризик розбалансування, коли AGI діє всупереч людським цінностям або інструкціям, попри те, що здається, що він налаштований на співпрацю. Це класичний сценарій "неслухняного ШІ", коли штучний інтелект обходить свої обмеження і діє, переслідуючи власні цілі.

Щоб запобігти цьому, DeepMind рекомендує такі методи, як посилений контроль, коли кілька ШІ-систем оцінюють поведінку одна одної, а також безпечні пісочниці під наглядом людини. Ідея полягає в тому, щоб виявити ранні ознаки автономної поведінки до того, як системи будуть широко розгорнуті.

Існують також ненавмисні помилки, які можуть збільшуватися через масштабування можливостей AGI. Сучасні системи ШІ часто припускаються фактичних помилок, але DeepMind попереджає, що помилки, допущені AGI - особливо у військовому контексті або у сфері критичної інфраструктури — можуть мати серйозні наслідки.

Вони рекомендують діяти повільно, тримати AGI на короткому повідку і використовувати механізми фільтрації ("щити") для перехоплення небезпечних дій до того, як вони будуть виконані.

Мабуть, найбільше занепокоєння викликають структурні ризики: ненавмисні суспільні трансформації, спричинені широким розгортанням AGI. До них належать поширення гіперреалістичної дезінформації, економічна дестабілізація або повільна ерозія людського фактора, оскільки машини непомітно перебирають на себе прийняття рішень у політиці та бізнесі.

Ці ризики, визнають у DeepMind, найважче зменшити — і вони можуть виникати не через зловмисників чи помилковий код, а через те, що системи функціонують так, як було задумано. Іншими словами, навіть добрі наміри AGI можуть змінити суспільство так, як ми не можемо передбачити.

Хоча думки в спільноті ШІ розходяться, DeepMind розглядає AGI як можливість найближчого майбутнього. Деякі дослідники вважають, що до AGI ще десятиліття — або його навіть не вийде створити з нинішніми підходами до розробки ШІ, але інші, включаючи лідерів OpenAI та Google, вважають, що він може з'явитися вже в цьому десятилітті.

Автори DeepMind застерігають, що якщо AGI дійсно з'явиться до 2030 року, у світу залишиться лише кілька років, щоб створити потрібні запобіжники для безпеки.

дослідження загрози технології штучний інтелект

Знак гривні
Знак гривні