Предложение Натальи Касперской
Я приняла участие в конференции Института системного программирования им. В.П. Иванникова РАН (ИСП РАН) «Перспективы информационной безопасности в искусственном интеллекте» и выступила с докладом о рисках применения генеративного ИИ для социальной сферы.
Дискуссионную сессию организовал консорциум исследований безопасности технологий ИИ. Консорциум создан при поддержке Минцифры России по инициативе АНО «Национальный технологический центр цифровой криптографии», Академии криптографии РФ и Института системного программирования им. В. П. Иванникова РАН. В состав входят ведущие компании ИБ-сферы, вузы и госорганы. Его цель – обеспечить безопасное развитие ИИ-технологий через взаимодействие государства, бизнеса и науки. Однако, когда мы рассматриваем генеративный искусственный интеллект, возникает большая сложность в вопросе доверия такой технологии.
Проблема генеративного ИИ
Генеративный ИИ сам производит результат и работает как «черный ящик». Результат его работы непредсказуем даже для разработчика, и он может давать разный ответ на один и тот же вопрос. При этом любой ответ генеративная модель готова уверенно «обосновать».
Кроме того, генеративный ИИ обучается на неизвестном наборе данных, а используемые им большие данные человек не может проверить в принципе. Популярные модели генеративного ИИ тренируется десятками тысяч дешевых тренеров в Нигерии и Индии.
Дополнительная проблема с доверием возникает в связи с тем, что массово используемые модели – такие как ChatGPT, DeepSeek, Owen и Grock – размещены в облаке на зарубежных серверах. Российские же модели – по большей части заимствованные и используют зарубежные технологии: от статей и нейронных фреймворков до датасетов, весов и движков LLM.
Социальные последствия использования генеративного ИИ
Активное применение генеративного ИИ в обществе может приводить к целому ряду негативных последствий. Например, продвижение повестки и нарративов недружественных к России политических сил. В иностранные языковые модели вносится фальсификация истории, пропаганда ЛГБТ (экстремистское движение, запрещено в РФ), другие деструктивные для общества идеи.
Частое применение больших моделей быстро ведет к привыканию и снижению у человека критического мышления. Перестают думать и работать самостоятельно – анализировать, диагностировать, писать документы, теряют профессиональные компетенции. Дополнительным фактором является снижение качества сгенерированных текстов и графики. Нейросеть производит усредненный шлак.
Кроме того, использование ИИ способствует снятию и перекладыванию ответственности. При работе ведомств и организаций с людьми решение выносит ИИ, и предъявить претензию, по сути, некому. Из этого вытекает отдельный массив рисков.
Возможности ИИ по ограничению прав граждан
В банках ИИ может применяться для автоматической оценки людей по платежеспособности и отказывать в выдаче кредитов и ипотеки. ИИ может самостоятельно расценивать те или иные операции как «подозрительные» и массово блокировать денежные переводы, банковские карты, а оспорить такие решения очень сложно. Фильтрация резюме может привести к открытой дискриминации при трудоустройстве.
На основании собранных или купленных оператором ИИ-модели персональных данных, торговые сервисы могут предлагать более обеспеченным клиентам завышенные цены на те же товары и услуги, которые для других людей стоят дешевле.
Какие запреты необходимы
Исходя из изложенного выше, я вижу стратегическую важность регулятивных ограничений на использование генеративного ИИ в образовании, госуправлении, нормотворчестве и медиа:
Запрет разработки учебных материалов при помощи генеративного ИИ.
Запрет на любую автоматизацию обучения и выработку индивидуальных «образовательных траекторий» с помощью ИИ – это прямой путь к дискриминации людей.
Запрет автоматического начисления штрафов.
Запрет любых социальных рейтингов, которые формируются на основе разрозненных наборов данных с помощью ИИ.
Запрет на написание нормативно-правовых актов и законопроектов, а также на их автоматическую проверку при помощи ИИ.
Запрет генерации судебных решений и исков.
Решение вопроса об авторских правах, запрет на использование образов популярных людей для генерации видео.
Полный запрет на дипфейки – виртуальные образцы, которые реалистично копируют лицо, голос и поведение человека.
Запрет на автоматические кредитные рейтинги, ограничения на автоматическую блокировку счетов.
Такие законы есть в США, ЕС, Китае, Латинской Америке, Индии и даже в Узбекистане. Россия здесь пока отстает. Сейчас рабочая группа Комитета Совета Федерации по конституционному законодательству и государственному строительству во главе с сенатором Владимиром Кожиным, куда вхожу и я, занимается разработкой законопроекта о безопасном использовании ИИ в социальной сфере.
Я надеюсь, что такой закон в России вскоре появится.
Наталья КАСПЕРСКАЯ
