Выберите язык

Belarus Future

Dr. Valery Tsepkalo

Машина с лицом человека: как устранить угрозу цифровой манипуляции

Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.


Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.


Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.


Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.


Ботофермы - уже история.


Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.


Особое внимание привлекли организованные сетевые кампании, известные как ботофермы. Несколько лет назад в сеть утекли материалы, связанные с фондом Free Russia, в которых содержались инструкции для так называемых «эльфов»: кого травить, какие ярлыки использовать, как подавлять альтернативные мнения. Отдельный этаж в офисе в Тбилиси, как позже выяснилось, занимала команда из примерно 50 человек "белорусов", сосредоточенных исключительно на восхвалении Тихановской и дискредитации остальных лидеров белорусского сопротивления.


Кто стоял за этим — западные структуры или приближённые к Лукашенко бизнесмены, получавшие в Литве вид на жительство, чтобы избежать европейских санкций — вопрос второстепенный. Суть в другом: подобные схемы оказались эффективны для внешних доноров, плохо ориентирующихся в белорусском контексте и легко поддающихся на имитацию «единства» и «массовой поддержки», созданную усилиями ботов. Однако внутри страны эта тактика не работала. Общество со временем научилось распознавать агрессию платных аккаунтов и сформировало своего рода иммунитет — как к оскорблениям одних, так и к лицемерному восхвалению других.


Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.


В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.


Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас. 


Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач. 


Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.


Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.


Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.


На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...


Важность регулирования


В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».


Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.


Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.


Ответственность — критерий человечности


Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.


ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.


Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».


Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.


В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.