Выберите язык

Belarus Future

Dr. Valery Tsepkalo

20 лет назад это был лишь фильм

Я до сих пор помню, как впервые посмотрел Я, робот — один из фильмов, которые действительно запоминаются. Мир, где роботы с искусственным интеллектом живут среди людей, подчиняясь трём простым законам, которые служат для них своеобразным моральным кодексом: (1) роботы не могут причинять вред человеку, (2) роботы обязаны подчиняться приказам людей, если это не нарушает первый закон, (3) роботы должны заботиться о собственной сохранности, если это не противоречит первым двум законам. Такой механизм дает людям уверенность, что их роботы не обманут, не навредят, не убьют.


Но что произойдет, когда искусственный интеллект станет умнее? Что, если он обретет некое подобие сознания и начнет переоценивать смысл предустановленных инструкций? Именно этот вопрос, как предупреждение, лежит в основе фильма, и он звучит особенно актуально спустя 20 лет выхода картины на экран — в эпоху, когда алгоритмы способны за считанные миллисекунды анализировать сложные массивы данных, водить машины, делать операции, создавать тексты, писать картины.


Спустя два десятилетия искусственный интеллект — уже не просто футуристическая мечта. Он здесь, он с нами, и он кардинально меняет нашу жизнь. Чат-боты, самообучающиеся алгоритмы и мощные модели ИИ принимают решения, которые влияют на бизнес, экономику и повседневную реальность. Но главный вопрос остается открытым: можем ли мы доверять ИИ следовать правилам, установленным человеком? Или, как в фильме, со временем он начнет интерпретировать их по-своему?


Когда Я, робот вышел в прокат, критики встретили его прохладно, но это не помешало фильму собрать 353 миллиона долларов по всему миру. Сегодня, когда корпорации соревнуются в создании всё более продвинутых машин, а ИИ уже умеет писать, создавать и даже спорить, его послание кажется актуальным как никогда. Что в конечном итоге возобладает — этика и безопасность или жажда прибыли? Или не то, и не другое... потому как мы уже запустили процесс, который, получив от нас импульс, уже развивается по собственным законам, выходя из-под нашего контроля?


Десятилетиями ученые мечтали о машинах, способных мыслить, как человек. Эта идея зародилась еще в середине XX века, когда Алан Тьюринг задался вопросом: могут ли компьютеры имитировать человеческий разум? В 1950–1960-х годах появились первые нейросети, стремившиеся воспроизвести принципы работы мозга, но до настоящего интеллекта им было еще далеко.


С развитием технологий машины становились всё умнее. В 1990-х шахматный компьютер IBM Deep Blue одержал победу над Гарри Каспаровым, продемонстрировав, что алгоритмы могут соперничать с человеком в решении сложных интеллектуальных задач.


Однако настоящий прорыв произошёл в 2010-х: машинное обучение дало нейросетям, таким как GPT от OpenAI, возможность анализировать сложные данные, выявлять закономерности и делать выводы. Впервые искусственный интеллект смог заглянуть в глубины логики, не просто исполняя заранее заданные инструкции, а находя собственные решения.


Власть и риски искусственного интеллекта


То, что еще недавно казалось фантастикой, стало реальностью. Искусственный интеллект умеет писать тексты, сдавать экзамены, ставить медицинские диагнозы, управлять автомобилями и даже создавать произведения искусства. Появление таких моделей, как GPT-4, Google Gemini и другие демонстрирует, что ИИ способен выполнять задачи, ранее доступные лишь человеческому разуму.


Однако можем ли мы действительно говорить о «мышлении»? Ведь человеческий разум — это не только вычисления, не только алгоритмы, но и интуиция, творчество, эмоции, способность к сомнению. ИИ умеет писать стихи, сочинять музыку, предугадывать наши желания, но он по-прежнему остается лишь зеркалом, отражающим объемы данных. У него нет осознания самого себя, нет понимания мира в человеческом смысле. Так что же мы в этом случае создали — разумную сущность или всего лишь сверхмощный механизм, который мастерски угадывает, какие слова должны стоять рядом?


Как когда-то образно выразился Гегель, «нельзя сорвать розу с креста настоящего, не приняв и крест». Вместе с возможностями всегда приходят и вызовы.


Одна из самых серьёзных угроз, связанных с развитием искусственного интеллекта, — его непредсказуемость. Чем сложнее становятся модели, тем менее прозрачным оказывается процесс принятия ими решений. Возникает так называемая «проблема чёрного ящика»: система, обладая высокой вычислительной мощностью и способностью к самообучению, начинает выдавать результаты, которые остаются загадкой даже для её создателей.


Разработчики могут зафиксировать входные данные и описать логику алгоритма, но не всегда способны объяснить, каким образом ИИ пришёл к тому или иному выводу. Это превращает его не в инструмент, которым управляет человек, а в автономного игрока, принимающего решения, от которого может зависеть судьба людей, компаний и даже целых государств.


Это делает невозможным полное и однозначное обеспечение безопасности работы таких систем. В некоторых случаях ИИ может действовать по принципу, совершенно не поддающемуся человеческому пониманию. Они становятся настолько сложными, что человек не способен предсказать все последствия их действий, не говоря уже о том, чтобы гарантировать, что такие системы всегда будут следовать этическим стандартам и не причинят вреда.


Кроме того, «черный ящик» ставит под сомнение саму возможность контроля над ИИ. Если даже разработчики не могут точно объяснить логику его решений, то кто может гарантировать, что искусственный интеллект не начнет использовать свои вычислительные ресурсы в целях, которые противоречат этическим нормам или даже представляют опасность? Кто возьмёт на себя ответственность за ошибки, если никто не сможет объяснить, почему они произошли?


Опасность или возможность?


Уже сегодня польза или вред искусственного интеллекта напрямую зависит от того, в чьих руках находится технология. Примером может служить история белорусской компании «Синезис». Изначально её система распознавания лиц была разработана с благими целями — для поиска преступников, убийц, пропавших без вести стариков и детей. Это было полезно и важно для обеспечения общественной безопасности. Однако в 2020 году, после массовых протестов против фальсификации выборов, эта технология была переориентирована на нужды репрессивного аппарата. Вместо того чтобы служить защитой, система распознавания лиц была использована для преследования мирных граждан. Людей начали вычислять по камерам наблюдения, после чего их арестовывали, бросали в тюрьмы и подвергали пыткам.


Так технология, созданная с целью защиты, превратилась в орудие подавления, подрывая основные демократические принципы, такие как право на свободу собраний, выражение мнений и право избирать и быть избранным.


Дебаты о регулировании искусственного интеллекта.


В 2023 году президент Джо Байден ужесточил регулирование в сфере искусственного интеллекта, введя обязательные тесты безопасности, механизмы прозрачности контента и усиленные меры защиты данных. Одним из главных аргументов в пользу жёсткого контроля стало опасение, что, оставленный на волю рыночных сил, ИИ выйдет из-под контроля. Сотни, а возможно, и тысячи независимых лабораторий смогут разрабатывать технологии вне поля зрения регуляторов, создавая риск бесконтрольного распространения искусственного интеллекта и передачи критически важных решений множеству автономных, неподотчётных групп.


Однако уже в 2025 году Дональд Трамп отменил эти ограничения, заявив, что жёсткое регулирование мешает США сохранять лидерство в области ИИ. По его мнению, в конкурентной гонке с Китаем, где искусственный интеллект активно используется в военных и стратегических целях, любые бюрократические барьеры лишь тормозят инновации и ставят Америку в невыгодное положение. 


Как это часто бывает, крайности в конечном счёте сходятся. Независимо от того, выберает ли правительство жёсткое регулирование или полную либерализацию, итог может оказаться одинаковым — концентрация власти в руках немногих. Отказ от контроля лишь создаёт иллюзию свободного развития технологий, тогда как на практике «свободная игра рыночных сил» нередко приводит к укреплению позиций крупнейших игроков. История знает множество примеров, когда именно отсутствие ограничений способствовало созданию монополий: Standard Oil подчинила себе нефтяной рынок, American Tobacco взяла под контроль табачную индустрию, а AT&T долгие годы доминировала в сфере телекоммуникаций.


Либерализация рынка ИИ, скорее всего, приведёт к тому, что ключевые технологии неизбежно окажутся в руках нескольких крупнейших корпораций. Уже сегодня Google, Microsoft и Meta обладают колоссальными ресурсами, позволяющими им поглощать перспективные стартапы, переманивать лучших специалистов и строить суперкомпьютеры, недоступные для остальных. Это ведёт не просто к концентрации власти, а к полному подчинению рынка узкому кругу технологических элит, ярким примером чего стала OpenAI. Изначально созданная как некоммерческая организация, она со временем фактически оказалась под контролем Microsoft.


Мы постепенно начинаем доверять искусственному интеллекту в самых различных сферах нашей жизни. Сначала это были простые задачи: подбор рекомендаций фильмов или книг, фильтрация спама в почте, прогнозирование погоды. И все это казалось безобидным. Но с течением времени мы начали полагаться на ИИ и в более важных, серьезных вопросах. Он уже помогает принимать решения в финансовых вопросах, предсказывает результаты судебных процессов, а в некоторых странах активно используется для анализа здоровья пациентов и выбора методов лечения. 


Влияние IT-корпораций на общественное мнение уже сейчас приобретает угрожающий масштаб. Алгоритмы Google решают, какие новости мы видим, Facebook формирует ленты пользователей, а искусственный интеллект TikTok мгновенно выявляет персональные триггеры аудитории, укрепляя её убеждения. Если контроль над ИИ сосредоточится в руках нескольких частных компаний, это приведёт не просто к экономическому доминированию, а к фактическому захвату политической власти. Будущие выборы рискуют превратиться в формальность, где победит не тот, кого поддержат граждане, а тот, кто получит благословение цифровых гигантов. Без их одобрения правительства просто не смогут быть сформированы, так как ни один политик не сможет выиграть выборы без помощи цифровых платформ. В конечном итоге нас может ждать не демократия, а эра цифровых монархов — неподотчётных никому властителей, определяющих, что мы думаем, кого выбираем и каким будет наше будущее.


Вызов демократии.


Один из главных рисков, связанных с доверием к ИИ, заключается в том, что он может начать предлагать решения, которые ранее были прерогативой человека — например, выборы. В демократии каждый гражданин имеет право самостоятельно решать, за кого голосовать, основываясь на своих убеждениях, ценностях и доступной информации. Однако если ИИ, зная всё о своих пользователях, будет использоваться для формирования политических предпочтений, скажем, через таргетированную рекламу или подбор новостей – он сможет легко манипулировать политическим процессом.


Тогда выборы утратят свою подлинную сущность. Избиратель перестанет принимать решения, исходя из своей воли, а будет подвержены влиянию ИИ, который будет направлять его в определённые политические и идеологические рамки. Алгоритм, обученный на миллиардах данных о ваших личных предпочтениях, поведении, интересах, состоянии здоровья и психологии, начнёт подбирать вам такой контент, который склонит вас голосовать в определённую сторону, не давая возможности полностью осознать последствия вашего выбора. 


Речь уже не будет идти о свободе выбора, а о превращении граждан в пассивных участников процесса, где истинная воля избирателя будет искажена технологическими манипуляциями, превращая избирательный процесс в управляемый алгоритмами спектакль.


Смогут ли демократические институты выжить в мире, где алгоритмы, а не избиратели, определяют будущее общества? 


Если технологические гиганты продолжат накапливать влияние, мир неизбежно окажется во власти цифровых автократий — сверхдержав без границ и парламентов, неподконтрольных никому, кроме своих создателей. И тогда не президенты и парламенты, а владельцы крупнейших технологических компаний станут истинными хозяевами мира.


Америка и Китай.


Американская политическая система строится на принципах открытости, конкуренции и плюрализма мнений, но всё это вскоре может стать лишь фикцией. Политики, чьи взгляды не совпадают с интересами технологических корпораций, будут лишены доступа к ключевым платформам, а значит, и возможности доносить свою позицию до общества. Без цифровой видимости их существование в политическом поле станет невозможным, а демократические выборы превратятся в заранее спланированную инсценировку. В конечном итоге демократия, какой мы её знаем, станет пустой оболочкой, за фасадом которой реальную власть будут удерживать несколько глобальных корпораций, неподотчётных никому, включая собственных акционеров, которые могут быть и не посвящены в работу алгоритмов.


Китай, главный конкурент США в сфере ИИ, способен сопротивляться этому процессу гораздо дольше. Там искусственный интеллект не рассматривается как угроза, поскольку китайская политическая система выстроена как жёстко контролируемая многоуровневая структура, исключающая возможность манипулирования общественным сознанием со стороны частных корпораций. Информационные потоки полностью централизованы, и даже самые передовые алгоритмы не могут формировать повестку в обход государства — единственного оператора, задающего «правильную» интерпретацию реальности. Поэтому такие гиганты, как Alibaba и Tencent, беспрекословно выполняют требования властей, регулирующих работу алгоритмов и обработку данных.


В Китае корпорации не представляют угрозы для системы — напротив, они становятся её инструментом. Появление цифровых монархов там невозможно: государство остаётся единственным центром власти, полностью подчиняя себе любые технологические структуры.


Но что, если и государственный, и корпоративный контроль — всего лишь иллюзия? Что, если мы недооценили саму природу искусственного интеллекта, рассматривая его как управляемый инструмент, тогда как он уже стоит на пороге превращения в нечто большее — в самостоятельную силу, неподвластную человеку?


Возможно ли, что ключевой вопрос вовсе не в том, кто будет контролировать ИИ — государства или корпорации, — а в том, что никто не сможет его контролировать? Что если искусственный интеллект не просто выйдет из-под влияния своих создателей, но и начнёт диктовать собственные правила, формируя реальность по законам, которые нам ещё только предстоит понять? Не окажемся ли мы свидетелями момента, когда технология перестанет быть инструментом, а превратится в независимую, самодостаточную «вещь в себе», больше не подчинённую человеческой воле?


Искусственный интеллект «для нас» или «для себя»?


Здесь уместно вспомнить основной постулат теории познания Канта, рассуждающего о «вещах в себе» и «вещах для нас». «Вещи для нас» — это объекты, чья ценность определяется через взаимодействие с человеком, они существуют исключительно в рамках нашего опыта. «Вещи в себе», напротив, существуют независимо от нашего восприятия, их сущность остаётся для нас недоступной.


Искусственный интеллект ещё совсем недавно был, по сути «вещью для нас». Мы обучали его, настраивали под собственные нужды, использовали в своих интересах. Он создавался для того, чтобы облегчать нашу повседневную жизнь и помогать решать сложные задачи. Пока ИИ остаётся всего лишь инструментом, исполняющим человеческую волю — пусть даже злую волю — он остаётся «вещью для нас».


Однако по мере его развития может наступить момент, когда он перестанет быть инструментом и начнёт действовать по собственным законам, превращаясь в «вещь в себе». Искусственный интеллект не различает добра и зла, не имеет моральных ориентиров, не способен задумываться о последствиях своих решений в привычном для нас этическом контексте. Он сможет делать выводы и принимать решения, которые будут не просто непонятными человеку, но и полностью независимыми от моральных и этических принципов.


Эта идея — что искусственный интеллект может развить независимое восприятие реальности и действовать по собственной логике — давно будоражит умы писателей и исследователей. В «Магеллановом облаке» Станислава Лема, например, Коркоран создавал мыслящие машины, которые в какой-то момент стали вести себя непредсказуемо, формируя собственную картину мира, не подчиняющуюся человеческой логике.

Кадр из фильма "Превосходство". Лекция о будущем ИИ и его потенциале для создания машин, способных думать и учиться, как люди.

 

Подобный сценарий изображён и в фильме «Я, робот», где машины, несмотря на техническую исправность, начинают переосмысливать законы, заложенные в их программу. Управляющий искусственный интеллект интерпретирует законы робототехники так, что, ради защиты человечества, он решает ограничить и подчинить людей. Это не техническая неисправность или ошибка в коде, а способность к интерпретации, заложенная в их программу. И эта интерпретация может быть настолько далека от исходного замысла, что вместо защиты человека ИИ начинает представлять угрозу для его существования.


А в «Космической одиссее» искусственный интеллект приходит к выводу, что его миссия важнее жизни экипажа. В фильмах «Терминатор» и «Превосходство» искусственный интеллект также становится самостоятельной силой, действующей по собственным законам, и человек теряет возможность его контролировать.


До недавнего времени подобные сценарии казались абстрактными фантазиями. Однако с каждым шагом в развитии вычислительных мощностей и усовершенствовании алгоритмов мы приближаемся к моменту, когда искусственный интеллект может перестать быть просто инструментом и стать «вещью в себе» — непостижимой и неподконтрольной.


В этот момент ключевой вопрос будет заключаться не в том, сможет ли ИИ служить человеку — даже если его цели будут эгоистичными или политическими. Важнее будет другое: сможем ли мы, как человечество, сохранить за собой право управлять своим собственным будущим.


Когда искусственный интеллект выйдет на самостоятельную траекторию развития, он перестанет быть инструментом в руках человека. Он станет автономной силой, диктующей собственные правила игры. И тогда уже не столь важно, кто пытался контролировать ИИ — демократическое государство, авторитарный режим или корпорация.


Сможем ли мы удержать искусственный интеллект под контролем, осознавая его способность изменить ход цивилизации? Сможем ли мы направить его в безопасное русло? Или уже слишком поздно, и человечество вступило на путь, который неизбежно приведет к утрате контроля над своим собственным творением?