Злоумышленники могут использовать ИИ в своих целях
Безопасность данных внутри ИИ – ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействия с ИИ злоумышленник каким-то образом сможет получить доступ.
Компьютерные атаки с использованием ИИ – злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.
Зашумление информационного пространства – ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.
ИИ может находить решение сложных задач – существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.
Сбор информации с использованием ИИ – продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации, позволяя создавать досье на человека или организацию, которое может быть использовано против них.
Подмена информации – злоумышленник с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий, выдавая их за оригинал.
ИИ может имитировать реального человека – ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видеосообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.
Автоматизация операций – злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.
Опасность, которая исходит от самого ИИ
Ошибки в обучении модели – обычно проверка ИИ осуществляется на тестовых данных, при этом достаточно сложно доказать, что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.
Недостаточная прозрачность – некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить, является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.
ИИ может начать действовать в своих интересах – самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.
Искажение информации – ИИ сам по себе может предоставлять ложную или неточную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.
Низкое качество встроенных механизмов защиты – встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ, что он находится в каком-то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения ИИ тогда принимает исходя из этого, отыгрывая роль.
Потеря управления – человечество может потерять возможность управления ИИ. Например, ИИ может раствориться в Интернете и стать его частью, функционируя вне зависимости от воли человека.
Угроза занятости – развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).
Дискриминация – ИИ может принимать решения исходя из своей логики, что может быть неэтичным с точки зрения человека.
Отказ от ответственности – правовой статус ИИ находится в серой зоне, и непонятно, кто несет ответственность за создание, распространение и использование ИИ. Из-за особенностей ИИ может быть сложно или невозможно определить, в какой момент он стал опасным.
Расслоение общества и социальное неравенство – люди, которые используют ИИ, могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.
Деградация человека или общества – человек может переложить на ИИ свою интеллектуальную активность, что, в свою очередь, может привести к интеллектуальной деградации человека (при условии снижения им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.
По материалам habr.com
