Неправильне використання ШІ стало головною загрозою 2025 року — експерти

Світ продовжує стрімко інтегрувати штучний інтелект, але його неправильне використання людьми стає серйозною загрозою, попереджають аналітики. Не суперінтелект, а людська помилка та навмисні зловживання є джерелом ризику у 2025 році.

Юристи, довіряючи ChatGPT, використовують його для створення судових документів, ігноруючи схильність ШІ до вигадування. Так, адвокати в Нью-Йорку і Колорадо вже були оштрафовані за фіктивні справи, створені за допомогою ШІ.

Діпфейки стають дедалі доступнішими. У 2024 році підроблені зображення Тейлор Свіфт, створені з використанням інструменту Microsoft, викликали хвилю критики. Хоча компанія усунула вразливість, подібні технології залишаються широко доступними, сприяючи поширенню неправдивої інформації.

Зростаюча точність ШІ-генерацій дає змогу політикам і організаціям відкидати реальні докази, називаючи їх підробкою. Це явище вже використовується для дискредитації аудіо- та відеоматеріалів, що підриває суспільну довіру.

Приклади сумнівного використання ШІ включають автоматизовані системи відбору персоналу. Вони ухвалюють поверхневі рішення, і алгоритми соціального захисту, такі як у Нідерландах, де тисячі батьків були несправедливо звинувачені в шахрайстві.

Ризики ШІ не пов’язані з його автономією, а з діями людей, які або надмірно довіряють технології, або використовують її для обману і маніпуляцій, заявили експерти. Розв’язання цих проблем вимагає злагоджених дій компаній, урядів і суспільства, щоб мінімізувати загрози й уникнути наслідків неправильного використання, попереджають вони.

Чи була цікавою ця новина?

👍
0
👎
0

Завантажити застосунок Trustee Plus та випустити криптокарту