«Если говорить об угрозах, то для любой технологии, которая несет благо, очень важен аспект, когда она перестает быть промышленной и контролируемой, выходит в массы и каждый человек может ее использовать. Если бы настолько массовой стала атомная технология, мы, наверное, не дожили бы до сегодняшнего разговора», — говорила об искусственном интеллекте директор Курчатовского института Юлия Дьякова, выступая в Совфеде, где ученые, предприниматели и сенаторы пытались обсудить развитие технологий. Принятый кодекс этики в сфере искусственного интеллекта совершенно не работает, а догнать уходящий поезд ИИ невозможно — у России нет таких денег, но можно попробовать играть по другим правилам. Подробности — в материале «БИЗНЕС Online».
Игорь Ашманов подчеркнул, что регулировать технологии как таковые не стоит — это вызовет обвинения в луддизме и попытке затормозить прогресс
«Нужно регулировать не технологию, а ее опасное применение»
«Предлагаем как можно быстрее определиться с моделью и подходами и принять закон о безопасном использовании искусственного интеллекта в Российской Федерации… Сидеть и ждать становится все опаснее», — говорил накануне сенатор в Совфеде Владимир Кожин, возглавляющий рабочую группу по выработке законодательства в области ИИ. Но перед тем как в очередной раз все зарегулировать, власти собрали на круглом столе верхней палаты парламента предпринимателей и ученых, пытаясь нащупать золотую середину между развитием технологий и их безопасностью.
«Проблемы у нас не теоретические, они стали массовыми и уже появились в реальной жизни», — признал член СПЧ и известный IT-бизнесмен Игорь Ашманов. Он подчеркнул, что регулировать технологии как таковые не стоит — это вызовет обвинения в луддизме и попытке затормозить прогресс. «Нам нужно регулировать применение, опасное применение этой штуки в тех зонах, где она может причинить вред», — пояснил он.
Под ударом сфера образования — почти 90% студентов признают, что используют нейросети для выполнения домашних заданий. Соответственно, надо менять саму систему образования: в США, например, по его словам, уже практикуют устные экзамены.
И если в этом вопросе можно обратиться к опыту из-за океана, то в остальном в вопросе развития нейросетей американцев копировать не получится: не хватит ресурсов. Ашманов отметил, что США планируют в ближайшие год-полтора вложить в искусственный интеллект $1 триллион. «Мы не можем потратить триллион долларов. Мы не авторы этой технологии, у нас нет столько кадров и мощностей. <…> Нам за этим поездом бежать бессмысленно, нам нужно сойти с рельсов и поехать в аэропорт, найти асимметричный ответ», — сказал спикер.
При этом нам необходимы собственные российские нейросети, «вражеские» нам не подойдут, поскольку в них заложены другие ценности. «Нам нужен искусственный интеллект — на войне, в экономике, транспорте, космосе. Но не факт, что это [должен быть такой] генеративный искусственный интеллект, который является блестящей обманкой, генерирует много шлака и позволяет все фальсифицировать», — сказал Ашманов.
Еще одна проблема — этическая. Искусственный интеллект сегодня активно используется для ухода от ответственности. Например, врачи оправдывают свои неправильные решения ошибками ИИ. А чиновники выставляют перед собой чат-ботов и снимают с себя ответственность за общение с населением, которое порой задает неудобные, скандальные вопросы.
Неразборчивое использование ИИ представляет собой угрозу национальной безопасности РФ
Существующий ИИ-кодекс не работает
«Закон — это в первую очередь об ответственности. Закон — это когда ты отвечаешь за то, что что-то сделал, нарушил какие-то правила», — подчеркнул Ашманов. И здесь, по его убеждению, никакая этика и саморегулирование не помогут.
Он рассказал, что лично участвовал в написании Кодекса этики искусственного интеллекта. «Сначала этот кодекс был исключительно о том, как простимулировать ИИ, и ничего ему не запрещали. А мы влезли и написали туда много норм: что это для блага человека, что приоритет человека, что нельзя принимать юридически значимые решения, что надо всегда маркировать общение с ИИ и его результат», — сообщил он.
Кодекс подписали почти 1,2 тыс. компаний за четыре года, но никто так и не стал его выполнять. Крупные фирмы рассказывают, что не используют маркировку, чтобы не отпугнуть клиентов. Российский бизнес, по мнению спикера, беспечно относится к социальной ответственности и ориентирован только на получение прибыли.
Соответственно, нужен закон, который будет работать как набор санитарных правил — СанПиН — по применению ИИ в тех зонах, где он реально может причинить вред: образование, социальное обеспечение, медицина, государственное управление. «Не очень удобно говорить об этом в такой аудитории, но можно предположить, что депутаты генерируют если не сами законопроекты, то, по крайней мере, пояснительные записки к ним с использованием искусственного интеллекта, причем часто западного», — раскрыл мысль Ашманов.
Более того, неразборчивое использование ИИ представляет собой угрозу национальной безопасности РФ. При несоблюдении мер предосторожности происходит утечка чувствительных данных на Запад. Дело в том, что российские госорганы используют в основном иностранные большие языковые модели, поскольку «еще с советских времен у нас любят „фирму“». В результате в ChatGPT и другие иностранные большие языковые модели массово загружаются важные документы, в том числе повышенной секретности. «Это одно из тех недопустимых нарушений, которое санитарными правилами должно быть хотя бы в критической инфраструктуре запрещено», — констатировал Ашманов.
Юлия Дьякова напомнила, что в Советском Союзе наука занимала лидирующие позиции, 40 лет назад наши ученые создали полностью автоматизированный беспилотный космический аппарат «Буран», который до сих пор никто не повторил
Отечественные разработки не имеют аналогов в мире
Что делать, чтобы российские модели не отставали от западных? С предложением неожиданно выступила директор национального исследовательского центра «Курчатовский институт» Юлия Дьякова. Она напомнила, что в Советском Союзе наука занимала лидирующие позиции, 40 лет назад наши ученые создали полностью автоматизированный беспилотный космический аппарат «Буран», который до сих пор никто не повторил. Однако в 1990-е годы развитие технологий застопорилось, и сегодня главный вызов — не в интеллекте, а в «железе» и энергии.
«Сегодня то, что создало человечество, — это, по сути, не компьютер, а тепловая машина», — констатировала Дьякова. По ее данным, у GPT-чата порядка 200 млн подписчиков. Система колоссально энергозатратна: энергии, которая требуется на обработку одного голосового запроса, достаточно, чтобы вскипятить литр воды. Таким образом, при увеличении пользователей GPT всего в 2 раза электроэнергии, которую вырабатывают Штаты, просто не хватит. Это дает России возможность предложить тот самый асимметричный ответ, а именно — разработать новую компонентную базу.
В Курчатовском институте видят выход в создании нейроморфных систем, копирующих принципы работы человеческого мозга, который «значительно более энергоэффективен по сравнению с неправильно созданными системами, разработанными человеком». Природа оказалась гораздо экономнее человека: в наших компьютерах память и процессор разнесены, данные постоянно перегоняются туда-обратно, тратится огромное количество энергии. В мозге же все устроено иначе — обработка информации и хранение находятся рядом. «Если в микроэлектронике мы, надо признать, занимаем позицию догоняющего — почти безнадежно, то в нейроморфах мы не так сильно отстали, здесь можем вырваться», — заявила Дьякова.
Еще одна прорывная разработка Курчатовского института — криосистемы для компьютеров, работающие при температуре жидкого гелия. Они позволяют хранить и передавать информацию без полупроводников. Суперкомпьютер, который сегодня занимает целое здание и потребляет мегаватты, с помощью таких технологий сможет поместиться в чемодане. «По нашим данным, аналогов таких разработок нет. Это тоже возможность для прорыва», — подчеркнула Дьякова.
Но искусственный интеллект невозможно рассматривать в отрыве от энергетики, особенно в России с ее огромной территорией и неравномерно распределенными ресурсами. Ученая сделала акцент на атомных станциях малой мощности — они могут стать основой для независимых энергосистем, питающих информационные технологии. А следующий этап — применение этих систем в космосе. Кто первым поставит на Луне или Марсе «батарейку» для систем жизнеобеспечения и управления, тот и победит в космической гонке.
«Если говорить об угрозах, то для любой технологии, которая несет благо, очень важен аспект, когда она перестает быть промышленной и контролируемой, выходит в массы и каждый человек может ее использовать. Если бы настолько массовой стала атомная технология, мы, наверное, не дожили бы до сегодняшнего разговора», — предупредила докладчица.
Самый большой вызов лежит в применении искусственного интеллекта в биологических системах. Еще в 2007-м ученые расшифровали первый геном человека — на это ушли годы и колоссальные усилия. Сегодня загрузка геномной базы данных занимает несколько минут. С микроорганизмами все еще проще. А это означает, что возможности для создания биологического оружия становятся практически безграничными. В этой связи особое значение имеет уже принятый закон о национальной базе генетической информации.
Сенатор Дмитрий Пушков вообще больше рассматривал развитие ИИ именно в разрезе международной проблематики
«Надо понять, в каких сферах ИИ действительно необходим…»
В отличие от специалистов-практиков, представителей государственной власти больше волновали политические аспекты. Модерировавший сессию сенатор Дмитрий Пушков после выступления Дьяковой парировал, что ядерные технологии стали-таки массовыми. Он вспомнил и о Договоре о нераспространении ядерного оружия (ДНЯО) и порассуждал, что Израиль может применить ЯО против Ирана.
Представитель Совфеда вообще больше рассматривал развитие ИИ именно в разрезе международной проблематики. «Искусственный интеллект уже начал активно работать в военной сфере. И война в Иране стал первой, где искусственный интеллект, автономные системы были не вспомогательными средствами, а главными действующими лицами. По имеющейся информации, первая тысяча целей, пораженных в Иране, была спланирована ИИ», — констатировал он.
Проблема заключается в том, что точность наведения у нейросетей составляет всего 60%, в то время как у человека — 84%. Именно с этим связан трагический эпизод с ударом по школам для девочек, который произошел в самом начале войны. Якобы там раньше был военный объект и именно так он был маркирован на американских картах. «Это может быть попыткой создать себе алиби, но искусственный интеллект здесь опять же присутствует в качестве действующего лица», — заметил Пушков.
Перечислил сенатор и другие угрозы. Во-первых, фейки: искажение информации с помощью нейросетей становится массовым. Во-вторых, «галлюцинации» искусственного интеллекта — когда он выдает совершенно фантастические ответы, руководствуясь собственной «запутанностью сознания», как выразился Пушков. Ну и еще одна угроза — это «переоцененность» больших языковых моделей, которая создает инвестиционный пузырь на рынке ИИ. «Надо понять, в каких сферах искусственный интеллект абсолютно необходим, а в каких нынешнее человеческое сознание просто преувеличивает его возможности», — резюмировал Пушков.
«Совершенно позорно в 2026 году обсуждать, есть искусственный интеллект или нет», — грозно вступила в дискуссию официальный представитель МИД РФ Мария Захарова. По ее словам, нейросети будут постепенно, но неуклонно формировать у пользователей ценности и убеждения, политические и культурные воззрения, которым сами эти системы обучены. По ее словам, перманентное воздействие на подсознание уже осуществляется через разрастающуюся цифровую экосистему.
В итоге может сформироваться «гигантский информационный пузырь, сгенерированный псевдореальностью». Достоверное содержание будет невозможно отличить от фальшивого, а человечество рискует оказаться заложником подделок. «Когда этот пузырь лопнет, социальная дезориентация даст о себе знать», — предрекла дипломат.
«Одно дополнение по поводу подмены реальности. Сейчас роль искусственного интеллекта очень успешно выполняет Дональд Трамп. Президент США создал такую псевдореальность вокруг войны в Иране, что никто уже не понимает, что там происходит: то ли идут переговоры, то ли не идут; то ли завтра мир, то ли высадка сухопутных войск», — резюмировал Пушков.
Комментарии 18
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.