Тренды

Кибербезопасность и риски, связанные с искусственным интеллектом: фантастика или реальность

Искусственный интеллект и безопасность

Многими представителями различных университетов проводились исследования с целью выявить опасности обучения машин как средства поддержки киберпреступников. Опасность может быть связана не только с кражей данных и конфиденциальностью, но и с безопасностью людей в их экосистеме.

Несколько громких голосов, таких как Билл Гейтс или Стивен Хокинг, уже предупреждали человечество о возможных рисках, связанных с искусственным интеллектом, от кибератак до полного контроля машин над людьми. А пока искусственный интеллект переживает настоящий бум, находя применение в разных областях науки и техники, таких как беспилотные автомобили или распознавание голоса.

Искусственный интеллект 1

Искусственный интеллект и безопасность

Искусственный интеллект, как некоторые другие изобретения человечества, может стать опасным, если попадет не в те руки, представляя собой новый потенциал кибербезопасности. Например, киберпреступники могут использовать некоторые возможности для сканирования программного обеспечения и использовать его в незаконных целях. Они могут ускорить операции по внедрению вирусов и найти уязвимость в любой системе.

Интеллектуальная система безопасности способна преодолеть самую изощренную угрозу, но в то же время представляет собой настоящую мишень для других кибератак искусственного интеллекта. В эту отрасль инвестируют правительства всего мира и компании высоких технологий, поэтому искусственный интеллект становится высококонкурентным.

В чем заключаются опасения исследователей

Различные виды деятельности могут контролироваться роботами, которые будут уметь принимать решения сами, а отдельные технологии искусственного интеллекта будут использоваться для автоматизации этих видов деятельности. Искусственный интеллект может скрывать киберинфекцию, используя передовые методы, а также отключать компоненты безопасности и манипулировать системой. Заразившись, системы будут готовы к распространению других компьютерных вирусов или программ-вымогателей.

В центре внимания могут оказаться медицинские устройства. Путем внедрения передовых алгоритмов машинного обучения технологии искусственного интеллекта смогут создавать с нуля собственные вредоносные программы. Нечто подобное большинство киберпреступных организаций используют уже сегодня, модифицируя их исходный код и создавая различные образцы.

Беспилотные автомобили могут превратиться в систему, неправильно интерпретирующую команды, что приведет к опасным дорожным ситуациям. В потенциально опасное оружие могут превратиться и простые роботы, используемые для промышленной и потребительской деятельности. В исследовании были проанализированы также случаи, касающиеся робототехники и дронов.

Искусственный интеллект 2

Виды атак искусственного интеллекта

По оценкам аналитиков и инженеров, самой большой проблемой при атаке с использованием искусственного интеллекта остаются взлом паролей, отказ в обслуживании или кража личных данных. Подобные атаки могут нанести большой как физический, так и эмоциональный ущерб, затронуть административную деятельность государственных органов и уменьшить власть многих людей.

В медицинском секторе с помощью искусственного интеллекта, координирующего определенное количество атак, можно внедрять ошибочную информацию для постановки диагноза больным.
Координация хакерских атак вредоносным искусственным интеллектом может произойти в теоретически неизмеримом масштабе. Искусственным интеллектом, использующим огромный потенциал вычислительных машин, могут быть созданы новые образцы вирусов путем анализа их слабых мест и генерации расширенных форм.

Многие организации уже начали работать над тем, чтобы обезопасить вредоносные программы с искусственным интеллектом и быть готовыми к возможным атакам. Главным препятствием могут стать высокие вычислительные затраты, а также риск, который ставит под серьезную угрозу кибербезопасность с теоретически бесконечным потенциалом искусственного интеллекта.

Читайте также: Основы кибербезопасности

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности