Імовірність знищення людства руками ШІ досягає 20% — учені
Джеффрі Гінтон, почесний професор Університету Торонто та один із засновників сучасного штучного інтелекту, заявив, що ймовірність знищення людства ШІ протягом найближчих 30 років становить від 10% до 20%. В інтерв’ю він підкреслив, що технології розвиваються “набагато швидше”, ніж очікувалося.
Вчений порівняв людей із трирічними дітьми порівняно з потенційним інтелектом ШІ, вказуючи, що історія не знає прикладів, де більш розумна істота підпорядковувалася менш розумній. Винятком він назвав стосунки між матір’ю і немовлям, підкреслюючи унікальність цієї ситуації.
Гінтон покинув Google у 2023 році, щоб відкрито висловлюватися про ризики ШІ. Він попередив, що неконтрольований розвиток технологій може стати екзистенціальною загрозою, якщо такі системи вийдуть з-під людського контролю або потраплять до рук “поганих акторів”. З його думкою про ймовірність війни зі ШІ згодні багато дослідників.
Особливу увагу вчений звернув на проблему створення загального штучного інтелекту (AGI), який, за його словами, може перевершити людський інтелект протягом найближчих двох десятиліть. Такий сценарій він назвав “дуже страшною думкою”, підкреслюючи важливість державного регулювання.
Протилежного погляду дотримується Янн Лекун, колега Хінтона і головний фахівець зі ШІ в Meta. Він стверджує, що ШІ не тільки не становить загрози, а й здатний врятувати людство від вимирання, наприклад, завдяки вирішенню кліматичних і демографічних проблем.
Хінтон закликає до негайних заходів регулювання, наголошуючи, що ринкові сили недостатні для забезпечення безпечного розвитку технологій. Він упевнений, що без участі держав компанії не приділятимуть належної уваги дослідженням у сфері безпеки.
Питання регулювання ШІ залишається ключовим для майбутнього цієї технології. Поки думки експертів розходяться, страхи про можливу загрозу з боку ШІ продовжують привертати увагу урядів і широкої громадськості.