Шкідливе ПЗ на базі штучного інтелекту може розпізнати жертву в обличчя

  • Дата 14/08/2018

Штучний інтелект (ШІ) може використовуватися для виявлення і знищення шкідливих програм, але це аж ніяк не означає, що його також не можуть використовувати хакери.

Як повідомляють фахівці IBM, в «епоху ШІ» штучний інтелект ризикує стати зброєю в руках злочинців.

На підтвердження своєї теорії експерти створили шкідливе ПЗ на основі штучного інтелекту під назвою DeepLocker. Встановлюється разом з системами на зразок ПЗ для конференц-зв'язку; він залишається в сплячому режимі до тих пір, поки не знайде потрібну жертву. Для виявлення потрібного користувача DeepLocker використовує системи розпізнавання обличчя і голосу, дані про місце розташування, а також інформацію online-трекерів та соцмереж. Тільки як жертва буде знайдена, програма почне атаку.

Фахівці IBM порівняли DeepLocker зі снайпером, який влучно стріляє в обрану ціль, а не палить навколо себе без розбору в надії, що випадкова куля когось обов'язково зачепить. «Він залишається непомітним, обходячи виявлення до останнього моменту, аж доки не розпізнає потрібну ціль», - повідомили експерти.

Модель глибоких нейронних мереж DeepLocker ставить певні умови для виконання корисного навантаження. Якщо дійсність не задовольняє цих умов і мета не знайдена, програма залишається закритою. Завдяки цьому здійснити реверсний інжиніринг його коду практично неможливо, впевнені фахівці.

Підписка на новини

Підпишіться на наші новини, щоб завжди бути в курсі знижок та нових пропозицій!

Контакти

  • м. Луцьк, вул. Ковельська 2, оф. 315

  • +38066 023 70 86+38063 418 22 57
  • Ця електронна адреса захищена від спам-ботів. вам потрібно увімкнути JavaScript, щоб побачити її.

Gross

logo Gross

Відновлення даних. Комп'ютерна криміналістика. e-Discovery

Top