Рабочая группа NEA по новым технологиям провела семинар 25–26 марта, сосредоточившись на том, как искусственный интеллект может применяться для надзора за соблюдением требований и внутренних операций в ядерных органах власти.
Резюме
- Семинар NEA изучил реальные прикладные применения ИИ в ядерном регулировании, при этом тематические исследования из 15 стран—членов демонстрировали текущие инструменты и сценарии использования
- Регуляторы подчеркнули необходимость структурированных рамок для ИИ, четких показателей успешности и человеческого надзора при принятии решений
- Модели ИИ локального размещения (on-premise) стали ключевым вариантом для решения проблем кибербезопасности, суверенитета данных и защиты данных
Обсуждения были сосредоточены на практическом внедрении, а не на теории: участники рассматривали, как существующие инструменты могут быть встроены в рабочие процессы регулирования.
На мероприятии встретились ядерные регуляторы и специалисты по ИИ из 15 стран—членов NEA, а также представители международных организаций. Участники поделились тематическими исследованиями, демонстрирующими ИИ-системы, которые уже используются или находятся в разработке в регуляторных органах.
Примеры, представленные в ходе сессий, включали генерацию резюме и презентаций с помощью ИИ, повышение возможностей моделирования, а также извлечение релевантной информации из больших объемов документов по регулированию.
Эти демонстрации привели к подробным обменам мнениями по вопросам внедрения, извлеченным урокам и способам выявления высокоценных применений.
Ключевые выводы по внедрению ИИ в ядерном регулировании
Участники выделили несколько ключевых выводов. Существует явная необходимость создать структурированные рамки для ИИ в регуляторных органах, подкрепленные определенными процедурами и руководствами.
Хорошо очерченные проекты, как ожидается, будут работать более эффективно, в то время как наличие четких критериев успеха для инструментов ИИ и инициатив считается обязательным.
Модели локального размещения были определены как возможный способ решения проблем, связанных с кибербезопасностью, суверенитетом данных и защитой данных. Одновременно экспертные знания человека остаются центральными для принятия решений и для интерпретации результатов, сгенерированных ИИ.
Семинар содействовал открытому сравнению национальных подходов: регуляторы делились опытом внедрения и выявляли общие опасения. Обмены также указали на области, где более тесное международное сотрудничество могло бы помочь в решении общих задач.
Глобальное сотрудничество и следующие шаги для регуляторов
Г-н Эету Ахонен, заместитель председателя WGNT, возглавил обсуждения и подчеркнул ценность сотрудничества между юрисдикциями.
«Этот семинар продемонстрировал ценность международного сотрудничества. Каждый регулятор изучает ИИ под разным углом, но опыт, который у нас есть при внедрении инструментов ИИ, при решении задач кибербезопасности и при обеспечении человеческого надзора, удивительно похож. Открыто делясь и учась друг у друга, мы укрепляем нашу способность ответственно и эффективно применять ИИ для повышения ядерной безопасности».
WGNT, организовавшая мероприятие, служит платформой для обмена мнениями между регуляторами и организациями технической поддержки по вопросам надзора за emerging technologies на протяжении всего их жизненного цикла. Ее работа поддерживает развитие общего понимания и помогает определить пути к согласованным регуляторным позициям.
NEA планирует опубликовать отдельную брошюру с обобщением результатов семинара, включая ключевые проблемы, извлеченные уроки и рекомендуемые практики интеграции ИИ в процессы регулирования.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Samsung SDS расширяет партнерство с Google Cloud, чтобы обслуживать регулируемые отрасли с помощью ИИ и услуг безопасности
Сообщение Gate News, 23 апреля — Samsung SDS расширила партнерство с Google Cloud, чтобы предоставлять услуги ИИ, облачных вычислений и безопасности для регулируемых отраслей, включая государственный сектор и финансовые услуги.
Компании развернут Google Distributed Cloud для клиентов, которым требуется
GateNews4м назад
Sullivan & Cromwell приносит извинения за галлюцинации ИИ в судебном документе с 40 ошибочными ссылками
Сообщение Gate News, 23 апреля — Sullivan & Cromwell, крупная юридическая фирма с Уолл-стрит, принесла извинения федеральному судье после подачи судебного документа, содержащего примерно 40 неверных ссылок и другие ошибки, вызванные галлюцинациями ИИ. Эндрю Дитдерич, со-руководитель команды глобальной реструктуризации фирмы,
GateNews20м назад
Tencent представляет и открывает исходный код превью Hunyuan Hy3 с параметрами 295B
Сообщение Gate News, 23 апреля — Tencent представила и открыла исходный код превью Hunyuan Hy3, гибридную языковую модель с сочетанием механизма mixture-of-experts, объединяющую быстрое и медленное мышление. Модель включает 295 миллиардов общих параметров и 21 миллиард активных параметров, поддерживая максимальную длину контекста 256K
GateNews34м назад
Южная Корея и Вьетнам подписали 70+ MOUs по AI, энергетике и инфраструктуре данных
Сообщение Gate News, 23 апреля — Южная Корея и Вьетнам подписали более 70 меморандумов о взаимопонимании (MOUs) во время государственного визита президента Ли Джэ Мён в Ханой 23 апреля, охватив AI, энергетику, инфраструктуру и телекоммуникации. Деловой форум, в котором приняли участие более 500 руководителей, обсудил экосистемы AI и энергетической отрасли, при этом были представлены крупные корейские конгломераты, включая Samsung, SK, LG и Hyundai.
GateNews34м назад
Коллективное загрязнение движка для ответов ИИ: 56% в правильных ответах Gemini 3 не имеют подтвержденных источников
В этом тексте говорится, что при запросе к AI-движку для ответов он осуществляет немедленное цитирование веб-страниц; если источник является сгенерированным AI или в нем отсутствуют доказательства, это загрязняет результаты. Эффект достигается без необходимости дальнейшего обучения и называется загрязнением при извлечении (retrieval contamination). Хотя Gemini3 имеет высокую точность, 56% ответов не содержат проверяемых источников; кейсы вроде Lily Ray, Grokipedia показывают, что AI легко обмануть вымышленным контентом. Вывод заключается в том, что слой цитирования и надежные авторы оказываются разъединены, формируется самоподдерживающийся цикл загрязнения; пользователям все равно нужно возвращаться к исходным источникам и не считать ответ точкой окончательной проверки фактов.
ChainNewsAbmedia43м назад
Anthropic сообщает суду: развернутые в Пентагоне ИИ-модели не имеют «kill switch»
Сообщение Gate News, 23 апреля — Anthropic подала в Апелляционный суд США по округу Колумбия заявление, в котором говорится, что после того, как ее ИИ-модели будут развернуты в средах Пентагона, у компании нет ни видимости, ни технических средств, чтобы контролировать или отключать эти модели, и не существует никакого «kill switch»
GateNews45м назад