NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25–26 марта, сосредоточившись на том, как искусственный интеллект может применяться для надзора за соблюдением требований и внутренних операций в ядерных органах власти.
Резюме

  • Семинар NEA изучил реальные прикладные применения ИИ в ядерном регулировании, при этом тематические исследования из 15 стран—членов демонстрировали текущие инструменты и сценарии использования
  • Регуляторы подчеркнули необходимость структурированных рамок для ИИ, четких показателей успешности и человеческого надзора при принятии решений
  • Модели ИИ локального размещения (on-premise) стали ключевым вариантом для решения проблем кибербезопасности, суверенитета данных и защиты данных

Обсуждения были сосредоточены на практическом внедрении, а не на теории: участники рассматривали, как существующие инструменты могут быть встроены в рабочие процессы регулирования.

На мероприятии встретились ядерные регуляторы и специалисты по ИИ из 15 стран—членов NEA, а также представители международных организаций. Участники поделились тематическими исследованиями, демонстрирующими ИИ-системы, которые уже используются или находятся в разработке в регуляторных органах.

Примеры, представленные в ходе сессий, включали генерацию резюме и презентаций с помощью ИИ, повышение возможностей моделирования, а также извлечение релевантной информации из больших объемов документов по регулированию.

Эти демонстрации привели к подробным обменам мнениями по вопросам внедрения, извлеченным урокам и способам выявления высокоценных применений.

Ключевые выводы по внедрению ИИ в ядерном регулировании

Участники выделили несколько ключевых выводов. Существует явная необходимость создать структурированные рамки для ИИ в регуляторных органах, подкрепленные определенными процедурами и руководствами.

Хорошо очерченные проекты, как ожидается, будут работать более эффективно, в то время как наличие четких критериев успеха для инструментов ИИ и инициатив считается обязательным.

Модели локального размещения были определены как возможный способ решения проблем, связанных с кибербезопасностью, суверенитетом данных и защитой данных. Одновременно экспертные знания человека остаются центральными для принятия решений и для интерпретации результатов, сгенерированных ИИ.

Семинар содействовал открытому сравнению национальных подходов: регуляторы делились опытом внедрения и выявляли общие опасения. Обмены также указали на области, где более тесное международное сотрудничество могло бы помочь в решении общих задач.

Глобальное сотрудничество и следующие шаги для регуляторов

Г-н Эету Ахонен, заместитель председателя WGNT, возглавил обсуждения и подчеркнул ценность сотрудничества между юрисдикциями.

«Этот семинар продемонстрировал ценность международного сотрудничества. Каждый регулятор изучает ИИ под разным углом, но опыт, который у нас есть при внедрении инструментов ИИ, при решении задач кибербезопасности и при обеспечении человеческого надзора, удивительно похож. Открыто делясь и учась друг у друга, мы укрепляем нашу способность ответственно и эффективно применять ИИ для повышения ядерной безопасности».

WGNT, организовавшая мероприятие, служит платформой для обмена мнениями между регуляторами и организациями технической поддержки по вопросам надзора за emerging technologies на протяжении всего их жизненного цикла. Ее работа поддерживает развитие общего понимания и помогает определить пути к согласованным регуляторным позициям.

NEA планирует опубликовать отдельную брошюру с обобщением результатов семинара, включая ключевые проблемы, извлеченные уроки и рекомендуемые практики интеграции ИИ в процессы регулирования.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Samsung SDS расширяет партнерство с Google Cloud, чтобы обслуживать регулируемые отрасли с помощью ИИ и услуг безопасности

Сообщение Gate News, 23 апреля — Samsung SDS расширила партнерство с Google Cloud, чтобы предоставлять услуги ИИ, облачных вычислений и безопасности для регулируемых отраслей, включая государственный сектор и финансовые услуги. Компании развернут Google Distributed Cloud для клиентов, которым требуется

GateNews4м назад

Sullivan & Cromwell приносит извинения за галлюцинации ИИ в судебном документе с 40 ошибочными ссылками

Сообщение Gate News, 23 апреля — Sullivan & Cromwell, крупная юридическая фирма с Уолл-стрит, принесла извинения федеральному судье после подачи судебного документа, содержащего примерно 40 неверных ссылок и другие ошибки, вызванные галлюцинациями ИИ. Эндрю Дитдерич, со-руководитель команды глобальной реструктуризации фирмы,

GateNews20м назад

Tencent представляет и открывает исходный код превью Hunyuan Hy3 с параметрами 295B

Сообщение Gate News, 23 апреля — Tencent представила и открыла исходный код превью Hunyuan Hy3, гибридную языковую модель с сочетанием механизма mixture-of-experts, объединяющую быстрое и медленное мышление. Модель включает 295 миллиардов общих параметров и 21 миллиард активных параметров, поддерживая максимальную длину контекста 256K

GateNews34м назад

Южная Корея и Вьетнам подписали 70+ MOUs по AI, энергетике и инфраструктуре данных

Сообщение Gate News, 23 апреля — Южная Корея и Вьетнам подписали более 70 меморандумов о взаимопонимании (MOUs) во время государственного визита президента Ли Джэ Мён в Ханой 23 апреля, охватив AI, энергетику, инфраструктуру и телекоммуникации. Деловой форум, в котором приняли участие более 500 руководителей, обсудил экосистемы AI и энергетической отрасли, при этом были представлены крупные корейские конгломераты, включая Samsung, SK, LG и Hyundai.

GateNews34м назад

Коллективное загрязнение движка для ответов ИИ: 56% в правильных ответах Gemini 3 не имеют подтвержденных источников

В этом тексте говорится, что при запросе к AI-движку для ответов он осуществляет немедленное цитирование веб-страниц; если источник является сгенерированным AI или в нем отсутствуют доказательства, это загрязняет результаты. Эффект достигается без необходимости дальнейшего обучения и называется загрязнением при извлечении (retrieval contamination). Хотя Gemini3 имеет высокую точность, 56% ответов не содержат проверяемых источников; кейсы вроде Lily Ray, Grokipedia показывают, что AI легко обмануть вымышленным контентом. Вывод заключается в том, что слой цитирования и надежные авторы оказываются разъединены, формируется самоподдерживающийся цикл загрязнения; пользователям все равно нужно возвращаться к исходным источникам и не считать ответ точкой окончательной проверки фактов.

ChainNewsAbmedia43м назад

Anthropic сообщает суду: развернутые в Пентагоне ИИ-модели не имеют «kill switch»

Сообщение Gate News, 23 апреля — Anthropic подала в Апелляционный суд США по округу Колумбия заявление, в котором говорится, что после того, как ее ИИ-модели будут развернуты в средах Пентагона, у компании нет ни видимости, ни технических средств, чтобы контролировать или отключать эти модели, и не существует никакого «kill switch»

GateNews45м назад
комментарий
0/400
Нет комментариев