Нейросети наступают

Явные и скрытые опасности ИИ

За последние пару лет нейросети и другие продукты на базе ИИ и ML успели стать частью нашей повседневной реальности. Но, несмотря на это, они продолжают вызывать неоднозначные чувства даже у технически подкованных людей. Взрывной рост подобных технологий привлек повышенное общественное внимание как к позитивным, так и к негативным сторонам повсеместного внедрения продвинутых систем искусственного интеллекта.

По мере того, как ИИ становился все более изощренным и распространенным, голоса, предупреждающие о его потенциальных опасностях, начинали звучать все громче.

«Развитие искусственного интеллекта может означать конец человеческой расы», – утверждал в одном из интервью Стивен Хокинг.

«[ИИ] чертовски пугает меня», – заявил основатель Tesla и SpaceX Илон Маск на технической конференции SXSW. «Он способен на гораздо большее, чем кто-либо знает, и скорость улучшения экспоненциальна».

Весной 2023 года голоса ИИ-скептиков слились в дружный хор, результатом чего стало открытое письмо с призывом немедленно приостановить создание «гигантских» ИИ как представляющих «серьезные риски для общества и человечества». Меморандум подписали Илон Маск (Tesla, SpaceX), Эмад Мостак (Stability AI), Стив Возняк (Apple), а также более 1000 экспертов, исследователей и разработчиков искусственного интеллекта.

«В последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке за разработку и развертывание все более мощных цифровых интеллектов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать», – говорится в письме.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».

Не исключено, что данное заявление было вызвано непониманием общей картины или личными мотивами. Например, как в случае с Маском, который сам присоединился к LLM-гонке («соревнованию» крупнейших ИТ-корпораций по разработке больших языковых моделей или LLM). А возможно, нам стоит прислушаться к словам специалистов и задуматься над потенциальными недостатками этой технологии, пока искусственный интеллект не показал нам весь свой потенциал.

Ниже мы подробно рассмотрим возможные опасности искусственного интеллекта и пути управления рисками, связанными с ним.

 Массовая потеря работы из-за автоматизации

2022-23 годы ознаменовались не только беспрецедентным обострением мировой экономико-политической напряженности, но и настоящим валом увольнений технических специалистов в крупнейших компаниях отрасли, включая Microsoft, Meta (деятельность запрещена в РФ), Google и Amazon.

По данным онлайн-«счетчика» увольнений Layoffs.fyi, только за этот год из ИТ-компаний было уволено порядка 200 000 сотрудников, около 20% из которых составили инженеры-программисты. Массовые увольнения ценных технических кадров стали лишь наиболее заметной частью общего кризиса индустрии, который многие называют крупнейшим обвалом со времен «пузыря доткомов».

Одной из веских причин для подобной ситуации, наряду с инфляцией и закончившейся пандемией COVID-19, стал «внезапный» триумф больших языковых моделей (LLM) и повсеместное внедрение в производство ChatGPT-подобных нейросетей. Новые ИИ-инструменты не только показали поразительную ранее продуктивность в деле автоматизации рутинных задач, но и породили своеобразный всплеск социальной истерии.

Согласно недавнему опросу, проведенному по заказу Microsoft, почти половина (49 %) сотрудников ИТ-гиганта боятся потерять работу из-за ИИ. Похожие опасения разделяют представители различных «офисных» профессий – от бухгалтеров и дизайнеров, до маркетологов и юристов, – чьи повседневные обязанности теоретически можно передоверить алгоритмам нейросетей.

 Введение в заблуждение и распространение дезинформации

Умные системы с каждым днем всё лучше приспосабливаются к созданию «человекоподобного» контента – они могут заменять лица на фото и видео, составлять тексты статей, создавать посты в соцсетях, манипулировать изображениями, клонировать голоса и участвовать в «умной» рекламе.

По мере развития искусственный интеллект сможет создавать на потоке фальшивый контент, который будет все сложнее и сложнее верифицировать. Это даст злоумышленникам еще более совершенный способ распространять дезинформацию и пропаганду, создавая кошмарный сценарий, в котором практически невозможно отличить заслуживающие доверия новости от ложных.

Фальшивки от ИИ уже сегодня начинают оказывать негативное влияние на жизнь общества. В конце мая 2023 года в американских социальных сетях завирусилось фото, якобы запечатлевшее последствия разрушительной атаки на сердце министерства обороны США. Вид огромного черного облака, поднимающегося над Пентагоном, мгновенно вызвал шквал слухов и околопанических комментариев от пользователей.

Несмотря на то, что местная полиция и представители минобороны довольно быстро выпустили официальное опровержение, а специалисты опознали в фотографии подделку, ущерб не ограничился негативным общественным резонансом. Благодаря тому, что слухи распространяли, в том числе, верифицированные аккаунты, волна паники быстро докатилась до финансовых рынков, серьезно обвалив индексы многих крупных компаний. Например, S&P500 упал на 30 пунктов, а Dow Jones Industrial Average – на целых 50.

Незадолго до этого случая скандал, вызванный слишком реалистично сгенерированным изображением, потряс европейскую, и шире – католическую, общественность на разных континентах. На Reddit было опубликовано фото, где 86-летний папа римский прогуливается в роскошном дизайнерском пуховике по площади Святого Петра.

Хотя никто не скрывал, что изображение сгенерировано при помощи нейросети Midjourney (на что недвусмысленно намекало название аккаунта), фото успело разогнать огромный негативный резонанс, схожий с появлением не менее реалистичного ИИ-фейка, демонстрирующего «арест» Трампа.

Не меньшую потенциальную угрозу могут представлять дипфейки – видео, на которых лица реальных действующих персонажей заменены на лица медийных, политических знаменитостей или любых персон по желанию создателя. Несмотря на то, что большая часть создаваемых дипфейков относится к порнографии и развлекательной сфере, эта технология может повернуться к людям и более опасной стороной.

По мере проникновения дипфейков в политическую и социальную сферы они меняют новостной фон на все более мрачный. Теперь мы становимся свидетелями не только трогательных «извинений» Джона Сноу за мрачный финал «Игры престолов», но и можем увидеть, как Барак Обама называет Дональда Трампа «полным придурком» или Марк Цукерберг хвастается, что «полностью контролирует украденные данные миллиардов людей».

 Нарушение приватности

Каждый день человечество создает свыше 300 миллионов терабайт данных. Это главный ресурс, на котором основывается могущество технологических корпораций – главной силы цифровой эпохи. Несмотря на то, что большая часть всего цифрового контента в мире была создана за последние пару лет, личные данные остаются самым желанным и ценным «призом» для аналитических машинных алгоритмов на основе искусственного интеллекта.

В попытке построить наиболее полный профиль пользователя, позволяющий влиять на его поведение, коммерческие и государственные структуры часто нарушают разумные границы приватности. А когда у «дата-майнеров» появились продвинутые технологии с ИИ, границы личного пространства истончились до предела.

Раньше пользователю нужно было оставить большой «цифровой след», чтобы дать о себе потенциально ценные сведения. Сейчас же для профилирования достаточно обвешать город и автотрассы камерами, с подключенными к ним нейросетями, которые будут заниматься распознаванием лиц, анализом голоса, поведения и жестов в реальном времени.

С практическим применением высокотехнологичного сбора данных в реальном времени можно столкнуться практически в любой точке планеты. От уличного билборда в Дублине, анализирующего прохожих, чтобы показывать им более релевантные рекламные ролики, до предиктивных алгоритмов, помогающих американским полицейским прогнозировать места совершения преступлений.

Наиболее ярким примером вторжения в личное пространство с помощью продвинутых ИИ можно назвать китайский опыт использования технологий распознавания лиц в офисах, школах и других общественных местах. Помимо разветвленной сети камер, данные для обрабатывающих алгоритмов могут поступать и с легких переносных источников, например, со специальных очков, надетых на патрулирующих улицы полицейских.

Далеко не во всех странах вторжение в личную жизнь с помощью ИИ воспринимается с энтузиазмом. Так, именно из-за нарушения приватности и незаконного сбора пользовательских данных (а вовсе не из-за фейковых фото с папой в пуховике) власти Италии – первыми в Европе – ввели полный запрет на использование ChatGPT в своей стране. Правда, национальный бан чат-бота не продержался долго, но вынудил OpenAI впервые ввести специальную форму, с помощью которой пользователи из ЕС могут отправить запрос для удаления личных данных в соответствии с европейским Общим регламентом защиты данных (GDPR).

 Манипуляция общественным мнением

Еще в 2018 году группа ученых и исследователей из ведущих научных центров создала отчет о потенциальных опасностях ИИ, в котором на одном из первых мест значились «социальные манипуляции». Сегодня эти опасения во многом превратились в реальность, когда политики стали применять ИИ-технологии на просторах медиаплатформ для продвижения своих точек зрения. Если раньше для политического PR нужно было нанимать массу людей, то теперь достаточно нажать одну кнопку, и алгоритмы автоматически наполнят инфополе нужными смыслами, действуя с пугающей эффективностью.

Недавним примером стала предвыборная кампания Фердинанда Маркоса-младшего, который с помощью армии ИИ-троллей в TikTok смог повлиять на голоса молодых филиппинцев во время выборов 2022 года. Еще одним резонансным случаем стала история с британской консалтинговой компанией Cambridge Analytica. С помощью ИИ ей удалось получить доступ к данным из 87 миллионов профилей американцев в (запрещенном в России) Facebook, чтобы использовать собранную информацию для манипуляции общественным мнением в ходе выборов 2018 года в США.

При этом у многих возникает резонный вопрос: есть ли возможность ограничить или хотя бы сделать границы влияния искусственного интеллекта на общественное мнение более прозрачными?

В нашумевшем интервью Илона Маска популярному ведущему Такеру Карлсону создатель SpaceX заявил, что, по его мнению, огромная угроза исходит из потенциальной способности продвинутых моделей искусственного интеллекта массово создавать контент, способный изменять общественное мнение в ту или иную сторону.

«Со временем ИИ будет все четче понимать, как лучше влиять на людей. Затем он влезет в соцсети… и сможет манипулировать общественным мнением так, что это обернется катастрофой. Вот поэтому я настаиваю, чтобы в будущем аккаунты в (запрещенном в России) Twitter имели верификацию «человек», чтобы все понимали, что это действительно человек», – резюмировал проблему Маск. По его словам, только «дотошные проверки» на «человечность» смогут оградить пользователей от возможного негативного влияния миллионов ботов, чьи возможности вскоре могут превысить когнитивные способности людей.

 Ухудшение качества образования

Мечта приспособить продвинутые машины к освоению сложно перевариваемого «гранита науки» будоражила юные умы еще во времена СССР (вспомните школьные похождения Электроника из одноименного фильма). Однако до недавнего времени «автоматизация» учебного процесса в основном сводилась к рерайтам несложных статей, рефератов или эссе. Появление в массовой доступности технологий на базе LLM резко изменило устоявшуюся ситуацию.

О способности нейросетей кардинально влиять на образование широко заговорили в начале 2023 года в связи с беспрецедентным случаем. Студент Российского государственного гуманитарного университета (РГГУ) Александр Жадан разместил в своей соцсети информацию, что смог успешно защитить диплом, полностью написанный с помощью ChatGPT. Потратив всего 23 часа на «скармливание» машине англоязычных промптов, перевод с английского на русский и легкую редактуру, Александр смог добиться 82% уникальности текста и получить искомую тройку у комиссии.

Результат технологического «эксперимента», больше похожего на шалость, вызвал настоящую бурю в профессиональном сообществе и за его пределами. Ответы на извечный вопрос «И что нам с этим теперь делать?» варьировались от немедленного аннулирования результатов защиты диплома и увольнения принявших его преподавателей до использования этого практического опыта в будущем. Дискуссия даже поднялась на высший уровень – Александра позвали в Госдуму на круглый стол, где обсуждались потенциальные опасности, которые представляют ИИ-инструменты для образования.

Реакция самого вуза оказалась на удивление взвешенной. Студента вызвали для объяснений (потенциальный конфликт был улажен дистанционно с помощью юриста) и выпустили официальный пресс-релиз, в котором рекомендовали «ограничить доступ к ChatGPT в образовательных организациях», чтобы не допустить снижения общего качества образования. А вот зарубежные коллеги оценили прецедент Жадана более насторожено. Например, несколько ведущих японских университетов ввели ограничения на использование студентами ChatGPT, а один наложил полный запрет на детище OpenAI.

 Этические проблемы

Главная опасность этического характера связана не с тем, кто и как задает вопросы ИИ, а с тем, где нейросети берут ответы на эти вопросы. Согласно имеющимся законодательным нормам США, на которые опирались создатели ChatGPT и аналогичных продуктов, все материалы, сгенерированные чат-ботами (и другими программами), включая промпты от пользователей, не попадают под категории авторского права.

Зато данные, которые использовались для обучения продвинутых моделей, часто защищены копирайтом, что, по идее, требует официального разрешения от правообладателей. Юридически такие ИИ-системы, как генераторы изображений, музыки и чат-боты, вроде ChatGPT и LaMDA, не могут считаться авторами материалов, которые они производят. Их результаты являются просто комбинацией предыдущей человеческой работы, большая часть которой была взята из интернета и так или иначе защищена авторским правом.

Как показала практика, подобные этические проблемы имеют и обратную сторону. Это доказал кейс с графическим романом «Заря рассвета» (Zarya of the Dawn), ставший первой в истории попыткой зарегистрировать авторские права на продукцию ИИ. Комикс был создан на основе текста автора Кристины Каштановой (Kris Kashtanova) и визуальной части от нейросети Midjourney.

В сентябре 2022 года Бюро регистрации авторских прав США (U.S. Copyright Office) зарегистрировало копирайт на произведение, но буквально через несколько месяцев пересмотрело свое решение. В итоге регистрация авторских прав была частично отменена по причине того, что комикс имеет ранее не учтенное «нечеловеческое авторство». Под защитой авторских прав остались текст произведения, а также «подбор, согласование и расположение» его «письменных и визуальных элементов». А вот сами изображения, использованные в комиксе, под копирайт не попали – участие человека в их редактировании посчитали «слишком незначительным и незаметным».

Еще одна потенциально крупная этическая проблема, связанная с продвинутыми ИИ-системами, – использование богатых возможностей этих инструментов в сомнительных или откровенно аморальных целях. Известно, что разработчики вложили в ChatGPT множество ограничений, не позволяющих умному чат-боту стать орудием в руках потенциальных нарушителей общественных норм или законов.

Безусловно, нейросеть будет всячески избегать тем, связанных с оскорблениями личности, расизмом, планами совершения мошеннических или насильственных действий. Однако «моральные» алгоритмы ИИ зачастую оказываются бессильны против отработанных на людях приемах реверсивной психологии или хитроумных методов социального инжиниринга.

 Заключение

Большинство обычных людей (и даже технически подкованных специалистов) до конца не представляет себе, как работают запутанные алгоритмы нейронных сетей. Зато почти каждый из нас может легко представить ситуацию, когда умная машина превращается из помощника, улучшающего качество жизни, в источник многочисленных и вполне реальных проблем.

Продвинутые ИИ системы с каждым днем все больше проникают в нашу жизнь, умножая как надежды, так и опасения, которые вряд ли можно уместить в рамки одной статьи. Помимо упомянутых выше угроз, в медиапространстве регулярно обсуждаются и такие опасности, как:

  • появление самосознающего ИИ, который увидит в человеке угрозу или препятствие (привет, «Терминатор»)
  • усиление социальной-экономического неравенства и дискриминации из-за алгоритмической предвзятости
  • волатильность финансовых рынков из-за массового использования ботов
  • повышение сложности кибер-угроз
  • автономизация вооружения

Сейчас технология больших языковых моделей находится в фазе стремительного развития, поэтому трудно дать долгосрочные рецепты для преодоления связанных с ней проблем в разных областях. Конечно, можно прислушаться к рекомендациям титулованных ИИ-скептиков и попытаться законодательно зарегулировать эту сферу. Тем более что лидеры технологической гонки, пусть и не без сопротивления, соглашаются с подобным регулированием. Однако такие ограничения обычно носят догоняющий характер и могут стать лишь краткосрочным решением.

Пока ИИ не превзошел человека по общему интеллекту, благодаря развитию вычислительных мощностей, у каждого из нас остается испытанное средство противодействия «машинным» угрозам – развитие собственного критического мышления, вкупе со стремлением познавать окружающий мир.

UprightMan, сообщество IT-специалистов Хабр, habr.com

Из словаря ИИ

Языковые модели (LLM) – тип программы искусственного интеллекта, которая может распознавать и генерировать текст. L (large – большой) в названии означает, что программа обучается, изучая огромные наборы данных: книги, статьи, сайты в интернете.

Чат-бот – виртуальный собеседник, технология на основе искусственного интеллекта, которая имитирует человеческое общение. Ее целью является взаимодействие с людьми и предоставление ответов на их вопросы, выполнение команд, отправка информации или ведение диалогов. Подобные программы, например, используются в интернет-поисковиках или службах поддержки различных компаний. Сейчас в Госуслугах есть возможность использовать подобную технологию для поиска.

ChatGPT – один из наиболее известных и популярных чат-ботов, разработанный американской компанией OpenAI.

Дипфейк – фальшивое видео или аудио, созданное с помощью алгоритмов искусственного интеллекта, чаще всего нейросетей. Происходит от сочетания слов «deep learning» («глубокое обучение») и «fake» («подделка»).

Дата-майнер – специалист по интеллектуальной обработке данных. Он обрабатывает большие объемы информации и занимается поиском связей в ней.

Цифровой след – это совокупность данных, которые человек оставляет в процессе использования цифровых технологий и интернета. Он может быть как предоставленным самим пользователем, так и собранным автоматически.

Другие материалы номера