Комитет казначейства Великобритании предупредил, что регуляторы слишком сильно полагаются на существующие правила по мере ускорения использования ИИ в финансовых услугах.
Он призвал к более ясным руководствам по защите потребителей и ответственности руководителей к концу 2026 года.
Наблюдатели отмечают, что регулятивная неопределенность рискует задержать ответственное внедрение ИИ, поскольку системы становятся сложнее контролировать.
Парламентский комитет Великобритании предупредил, что быстрое внедрение искусственного интеллекта в финансовых услугах опережает способность регуляторов управлять рисками для потребителей и финансовой системы, вызывая опасения по поводу ответственности, надзора и зависимости от крупных технологических провайдеров.
В выводах, предписанных к публикации Палатой общин в начале этого месяца, комитет по казначейству заявил, что регуляторы Великобритании, включая Управление по финансовому поведению, Банк Англии и HM Treasury, слишком сильно полагаются на существующие правила по мере распространения использования ИИ среди банков, страховых компаний и платежных фирм.
«Путем ожидания и наблюдения за развитием ИИ в финансовых услугах, три органа подвергают потребителей и финансовую систему потенциально серьезному риску», — написано в документе.
ИИ уже встроен в основные финансовые функции, заявил комитет, в то время как надзор не успевает за масштабом или прозрачностью этих систем.
Выводы поступают на фоне того, что правительство Великобритании стремится расширить внедрение ИИ в экономику, при этом премьер-министр Киер Стармер примерно год назад обещал «ускорить» будущее Британии с помощью этой технологии.
Отмечая, что «ИИ и более широкие технологические разработки могут принести значительные преимущества потребителям», комитет заявил, что регуляторы не предоставили компаниям четких ожиданий относительно того, как применять существующие правила на практике.
Комитет призвал Управление по финансовому поведению опубликовать всеобъемлющие рекомендации к концу 2026 года о том, как правила защиты потребителей применяются к использованию ИИ и как ответственность должна распределяться между руководителями в соответствии с существующими правилами ответственности, когда системы ИИ причиняют вред.
Ожидается, что официальные протоколы будут опубликованы позже на этой неделе.
«В заслугу стоит сказать, что Великобритания вышла вперед в области финтеха — песочница FCA в 2015 году была первой в своем роде, и с тех пор ее скопировали 57 стран. Лондон остается центром финтеха, несмотря на Брекзит», — сказал Decrypt Дермот МакГрат, соучредитель стратегической и ростовой студии ZenGen Labs, базирующейся в Шанхае.
Тем не менее, хотя этот подход «работал, потому что регуляторы могли видеть, что делают компании, и вмешиваться при необходимости», искусственный интеллект «полностью разрушает эту модель», — отметил МакГрат.
Технология уже широко используется в финансовом секторе Великобритании. Однако многие компании не имеют четкого понимания самих систем, на которых они полагаются, объяснил МакГрат. Это оставляет регуляторам и компаниям возможность делать выводы о том, как применимы долгосрочные правила справедливости к непрозрачным, основанным на моделях решениям.
МакГрат утверждает, что более крупная проблема заключается в том, что неясные правила могут задержать внедрение ИИ компаниями до такой степени, что «регулятивная неопределенность подавляет тех, кто внедряет его аккуратно». Ответственность за ИИ усложняется, когда модели создаются технологическими компаниями, адаптируются третьими сторонами и используются банками, оставляя менеджеров ответственными за решения, которые они могут с трудом объяснить.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Парламентский комитет Великобритании выявил пробелы в контроле за ИИ, что может подвергнуть финансовую систему рискам
Вкратце
Парламентский комитет Великобритании предупредил, что быстрое внедрение искусственного интеллекта в финансовых услугах опережает способность регуляторов управлять рисками для потребителей и финансовой системы, вызывая опасения по поводу ответственности, надзора и зависимости от крупных технологических провайдеров. В выводах, предписанных к публикации Палатой общин в начале этого месяца, комитет по казначейству заявил, что регуляторы Великобритании, включая Управление по финансовому поведению, Банк Англии и HM Treasury, слишком сильно полагаются на существующие правила по мере распространения использования ИИ среди банков, страховых компаний и платежных фирм. «Путем ожидания и наблюдения за развитием ИИ в финансовых услугах, три органа подвергают потребителей и финансовую систему потенциально серьезному риску», — написано в документе.
ИИ уже встроен в основные финансовые функции, заявил комитет, в то время как надзор не успевает за масштабом или прозрачностью этих систем. Выводы поступают на фоне того, что правительство Великобритании стремится расширить внедрение ИИ в экономику, при этом премьер-министр Киер Стармер примерно год назад обещал «ускорить» будущее Британии с помощью этой технологии. Отмечая, что «ИИ и более широкие технологические разработки могут принести значительные преимущества потребителям», комитет заявил, что регуляторы не предоставили компаниям четких ожиданий относительно того, как применять существующие правила на практике. Комитет призвал Управление по финансовому поведению опубликовать всеобъемлющие рекомендации к концу 2026 года о том, как правила защиты потребителей применяются к использованию ИИ и как ответственность должна распределяться между руководителями в соответствии с существующими правилами ответственности, когда системы ИИ причиняют вред.
Ожидается, что официальные протоколы будут опубликованы позже на этой неделе. «В заслугу стоит сказать, что Великобритания вышла вперед в области финтеха — песочница FCA в 2015 году была первой в своем роде, и с тех пор ее скопировали 57 стран. Лондон остается центром финтеха, несмотря на Брекзит», — сказал Decrypt Дермот МакГрат, соучредитель стратегической и ростовой студии ZenGen Labs, базирующейся в Шанхае. Тем не менее, хотя этот подход «работал, потому что регуляторы могли видеть, что делают компании, и вмешиваться при необходимости», искусственный интеллект «полностью разрушает эту модель», — отметил МакГрат. Технология уже широко используется в финансовом секторе Великобритании. Однако многие компании не имеют четкого понимания самих систем, на которых они полагаются, объяснил МакГрат. Это оставляет регуляторам и компаниям возможность делать выводы о том, как применимы долгосрочные правила справедливости к непрозрачным, основанным на моделях решениям. МакГрат утверждает, что более крупная проблема заключается в том, что неясные правила могут задержать внедрение ИИ компаниями до такой степени, что «регулятивная неопределенность подавляет тех, кто внедряет его аккуратно». Ответственность за ИИ усложняется, когда модели создаются технологическими компаниями, адаптируются третьими сторонами и используются банками, оставляя менеджеров ответственными за решения, которые они могут с трудом объяснить.