Мікко Хіппонен провів десятиліття в боротьбі зі шкідливим програмним забезпеченням. 54-річний Мікко переміг одних з найбільш руйнівних комп’ютерних вірусів у світі, відстежив творців першого в історії комп’ютерного вірусу та продавав власне програмне забезпечення ще з підліткового віку в Гельсінкі.
За ці роки він заслужив визнання Vanity Fair, потрапив до списку 100 найкращих мислителів світу за версією Foreign Policy та обійняв посаду директора з досліджень у WithSecure – найбільшій фірмі з кібербезпеки у Скандинавії. Хіппонен також є куратором онлайн Музею шкідливого програмного забезпечення. Проте всю історію в його архівах може затьмарити нова ера технологій: ера штучного інтелекту. Мисливець на хакерів, який сам себе називає оптимістом, очікує, що революція матиме позитивний вплив. Але він також стурбований кіберзагрозами, які вона спричинить.
1. Глибокі фейки
Дослідники вже давно описують глибокі фейки як найбільш загрозливе використання ШІ в злочинних цілях, але синтетичні ЗМІ досі не виправдали прогнозів. Принаймні, поки що. Однак за останні місяці побоювання почали матеріалізуватися. Згідно з дослідженням Onfido, лондонського розробника систем верифікації особистих даних, кількість спроб шахрайства зросте на 3 000% у 2023 році.
У світі інформаційної війни сфабриковані відео також набувають все більшого поширення. Грубі діпфейки президента України Володимира Зеленського з перших днів повномасштабного вторгнення росії останнім часом витісняються витонченими медіа-маніпуляціями.
Глибокі фейки також почали з’являтися і в простих шахрайствах. Найпомітніший приклад був виявлений у жовтні, коли в TikTok з’явилося відео, яке нібито показувало, як MrBeast пропонує нові iPhone всього за 2 долари. Втім, фінансові афери, які використовують переконливі фейки, залишаються рідкісними.
Наразі Хіппонен бачив лише три такі випадки, але він очікує, що їхня кількість швидко зростатиме. Щоб зменшити ризик, він пропонує старомодний захист: безпечні слова. Уявіть собі відеодзвінок з колегами або членами сім’ї. Якщо хтось попросить вас надати конфіденційну інформацію, наприклад, грошовий переказ або конфіденційний документ, ви запитаєте кодове слово, перш ніж виконати прохання. “Встановлення безпечного слова зараз – це дуже бюджетна страховка на випадок, коли подібне почне відбуватися масово. Це те, що ми повинні зробити вже зараз заради безпеки в 2024 році”.
2. Глибокі шахрайства
Незважаючи на те, що за назвою вони схожі на глибокі фейки, глибокі шахрайства не обов’язково пов’язані з маніпуляціями в засобах масової інформації. У цьому випадку “глибокі” означають масовість шахрайства. Це досягається за допомогою автоматизації, яка може збільшити кількість цілей від кількох до нескінченності.
Ці технології можуть сприяти розгортанню всіх видів шахрайства. Інвестиційні афери, фішингові афери, афери з нерухомістю, афери з квитками, романтичні афери… скрізь, де є ручна робота, є місце для автоматизації. Пам’ятаєте шахрая з Tinder? Шахрай вкрав приблизно 10 мільйонів доларів у жінок, з якими познайомився в Інтернеті.
Уявіть, якби він був оснащений великими мовними моделями (LLM) для поширення своєї брехні, генераторами зображень для додавання очевидних фотографічних доказів і мовними конвертерами для перекладу його повідомлень. Кількість потенційних жертв була б величезною. “Шахраї можуть ошукати 10 000 жертв одночасно замість трьох-чотирьох”, – каже Хіппонен.
Шахраї Airbnb також можуть отримати вигоду. Зараз вони зазвичай використовують вкрадені зображення з реальних оголошень, щоб переконати відпочивальників зробити бронювання. Це трудомісткий процес, який можна зупинити за допомогою зворотного пошуку зображень. З GenAI цих бар’єрів більше не існує. “За допомогою Stable Diffusion, DALL-E та Midjourney ви можете просто генерувати необмежену кількість абсолютно правдоподібних Airbnbs, які ніхто не зможе знайти”.
3. Шкідливе програмне забезпечення з підтримкою великих мовних моделей (LLM)
ШІ вже пише шкідливе програмне забезпечення. Команда Гіппонен виявила трьох хробаків (тип вірусів), які запускають LLM для переписування коду щоразу, коли шкідливе програмне забезпечення реплікується. Жоден з них ще не був знайдений в реальних мережах, але вони були опубліковані на GitHub – і вони працюють.
Використовуючи OpenAI API, хробаки використовують GPT для генерації різного коду для кожної цілі, яку вони заражають. Це ускладнює їх виявлення. Однак OpenAI може занести поведінку шкідливого програмного забезпечення до чорного списку. “Це можна зробити за допомогою найпотужніших генеративних систем штучного інтелекту, які пишуть код, оскільки вони мають закритий вихідний код”, – каже Хюппонен.
“Якщо ви можете завантажити всю велику мовну модель, ви можете запустити її локально або на власному сервері. Вони більше не зможуть внести вас до чорного списку. Це перевага генеративних систем штучного інтелекту з закритим кодом”. Ця перевага також стосується алгоритмів генерації зображень. Запропонуйте відкритий доступ до коду і спостерігайте, як ваші обмеження на насильство, порно і обман будуть демонтовані.
З огляду на це, не дивно, що OpenAI є більш закритим, ніж випливає з його назви. Звісно, не враховуючи дохід, який вони втратять через розробників-імітаторів.
4. Виявлення нульових днів
Ще одна проблема, пов’язана з експлоітами нульового дня, які зловмисники виявляють ще до того, як програмісти створюють рішення для цієї проблеми. ШІ може виявляти ці загрози, але він також може їх створювати. “Чудово, коли ви можете використовувати помічника зі штучним інтелектом для пошуку вразливостей нульового дня у вашому коді, щоб ви могли їх виправити”, – каже Хіппонен.
“І жахливо, коли хтось інший використовує ШІ, щоб знайти нульові дні у вашому коді і використати вас у своїх цілях. Студент, який працює у WithSecure, вже продемонстрував цю загрозу. В рамках дипломної роботи він отримав права звичайного користувача для доступу до командного рядка на комп’ютері з Windows 11. Потім студент повністю автоматизував процес сканування вразливостей, щоб стати локальним адміністратором. Компанія WithSecure вирішила засекретити дипломну роботу.
5. Автоматизоване шкідливе програмне забезпечення
Протягом десятиліть компанія WithSecure впроваджувала автоматизацію у свої засоби захисту. Це дає компанії перевагу над зловмисниками, які все ще здебільшого покладаються на ручні операції. Для зловмисників є чіткий спосіб подолати цей розрив: повністю автоматизовані кампанії з розповсюдження шкідливого програмного забезпечення.
Коли це стане можливим, результати можуть бути тривожними. Настільки тривожними, що Хіппонен вважає повністю автоматизоване шкідливе програмне забезпечення загрозою номер один для безпеки в 2024 році. Проте існує ще більша загроза.
Небезпечний шлях до AGI
Хіппонен висунув гіпотезу про безпеку Інтернету речей. Відома як закон Хіппонена, теорія стверджує, що коли пристрій описується як “розумний”, він є вразливим. Якщо цей закон застосувати до суперінтелектуальних машин, ми можемо потрапити в серйозні неприємності. Хіппонен очікує, що стане свідком такого впливу.
“Я думаю, що ми станемо другою найрозумнішою істотою на планеті ще за мого життя”, – каже він. “Не думаю, що це станеться у 2024 році. Але я думаю, що це станеться за мого життя”. Щоб зберегти контроль над ШІ з боку людини, Хіппонен виступає за те, щоб він чітко відповідав нашим цілям і потребам.
“Те, що ми будуємо, повинно розуміти людство і розділяти його довгострокові інтереси з людьми… Переваги величезні – більші, ніж будь-коли, – але й недоліки також більші, ніж будь-коли”.








