AI trong Tuân Thủ Không Phải Là Một Hộp Đen — Đó Là Một Bài Kiểm Tra Về Trách Nhiệm: Phỏng vấn với Roman Eloshvili

Roman Eloshvili là người sáng lập ComplyControl, một startup về tuân thủ và phát hiện gian lận dựa trên trí tuệ nhân tạo dành cho các tổ chức tài chính.


Khám phá các tin tức và sự kiện fintech hàng đầu!

Đăng ký bản tin của FinTech Weekly

Được đọc bởi các giám đốc điều hành tại JP Morgan, Coinbase, Blackrock, Klarna và nhiều hơn nữa


AI trong Tuân thủ thực sự đang kiểm tra điều gì: Công nghệ, hay chính chúng ta?

Trong dịch vụ tài chính, tuân thủ không còn chỉ là một chức năng nữa. Nó trở thành một điểm áp lực tích cực—nơi quy định, rủi ro và vận hành va chạm. Khi các công nghệ AI được giới thiệu vào lĩnh vực này, một câu hỏi luôn xuất hiện lại: chúng ta có thể tự động hóa đến mức nào, và ai sẽ chịu trách nhiệm khi mọi việc xảy ra sai sót?

Sức hút của AI trong phát hiện gian lận và tuân thủ là dễ hiểu. Các tổ chức tài chính đối mặt với kỳ vọng ngày càng tăng về việc xử lý lượng dữ liệu khổng lồ, phản ứng với các mối đe dọa ngày càng tinh vi, và tuân thủ các quy định thay đổi—tất cả mà không làm giảm tốc độ hoặc độ chính xác. Tự động hóa, đặc biệt khi được thúc đẩy bởi học máy, mang lại cách giảm bớt gánh nặng vận hành. Nhưng nó cũng đặt ra những mối lo ngại sâu sắc hơn về quản trị, khả năng giải thích và kiểm soát.

Những căng thẳng này không phải là lý thuyết. Chúng đang diễn ra trong thời gian thực, khi các công ty tài chính triển khai các mô hình AI vào các vai trò truyền thống do các nhà phân tích con người đảm nhiệm. Đằng sau hậu trường, các rủi ro mới đang nổi lên: các kết quả dương tính giả, các điểm mù trong kiểm toán, và các quyết định dựa trên thuật toán vẫn còn mập mờ đối với cả người dùng lẫn cơ quan quản lý.

Cùng lúc đó, các chuyên gia tuân thủ đang được yêu cầu thay đổi vai trò. Thay vì kiểm tra thủ công từng giao dịch, họ giờ đây giám sát các công cụ làm điều đó. Việc này, từ vai trò thực thi sang vai trò đánh giá, đòi hỏi không chỉ kỹ năng kỹ thuật mới mà còn cần ý thức đạo đức và trách nhiệm thủ tục mạnh mẽ hơn. AI có thể mở rộng phân tích dữ liệu. Nó có thể phát hiện các điểm bất thường. Nhưng nó không thể giải thích hoàn toàn ý định, diễn giải bối cảnh, hay gánh chịu trách nhiệm.

Hiểu rõ những giới hạn này là điều cực kỳ quan trọng. Và ít ai có thể hiểu rõ hơn Roman Eloshvili, người sáng lập công ty công nghệ tuân thủ có trụ sở tại Vương quốc Anh, ComplyControl. Công việc của anh nằm ngay tại giao điểm của rủi ro, tự động hóa và giám sát—nơi hiệu quả thuật toán gặp gỡ sự giám sát pháp lý.

Với hơn một thập kỷ trong ngành, Roman đã chứng kiến trực tiếp cách các nhóm tuân thủ đang tiến hóa và AI đang định hình lại cả quy trình làm việc lẫn trách nhiệm của họ. Anh lập luận rằng lời hứa của AI không nằm ở việc loại bỏ vai trò của con người, mà ở việc định hình lại chúng—mang lại sự rõ ràng mới về những gì máy móc nên xử lý, và những gì con người vẫn phải đảm nhận.

Sự chuyển đổi này đòi hỏi nhiều hơn là nâng cấp kỹ thuật. Nó còn yêu cầu một sự điều chỉnh văn hóa về trách nhiệm giải trình. Các hệ thống minh bạch, quy trình có thể kiểm toán, và trách nhiệm rõ ràng của con người không còn chỉ là tính năng nữa—chúng là tiêu chuẩn tối thiểu. Khi AI được đưa vào hạ tầng quan trọng, nó không chỉ giải quyết các vấn đề. Nó còn giới thiệu một loại quyết định mới đòi hỏi sự quản lý chiến lược tích cực.

Trong cuộc trò chuyện này với FinTech Weekly, Roman cung cấp một góc nhìn thực tế về những gì cần thiết để tích hợp AI một cách có trách nhiệm vào lĩnh vực tuân thủ và phòng chống gian lận. Quan điểm của anh không xem tự động hóa như một điều tất yếu, mà như một lựa chọn—một quyết định đòi hỏi sự đánh giá liên tục của con người, sự rõ ràng trong vận hành, và sự sẵn sàng đặt câu hỏi khó về nơi thực sự đặt niềm tin.

Chúng tôi rất vui được chia sẻ những góc nhìn của anh trong thời điểm nhiều công ty fintech đang đặt câu hỏi không phải về việc có nên áp dụng AI hay không—mà là làm thế nào để làm điều đó mà không mất đi các tiêu chuẩn đã giúp hệ thống tài chính hoạt động hiệu quả từ ban đầu.


1. Bạn đã xây dựng sự nghiệp tại điểm giao thoa giữa tuân thủ và công nghệ. Bạn có thể nhớ lại khoảnh khắc nào khi bạn nhận ra rằng AI có thể thay đổi căn bản cách quản lý rủi ro không?

Tôi sẽ không nói đó chỉ là một khoảnh khắc cụ thể đã thay đổi tất cả. Thay vào đó, đó là một quá trình diễn ra dần dần. Tôi đã dành phần lớn sự nghiệp của mình làm việc với các ngân hàng châu Âu đã thành lập, và một điều tôi luôn nhận thấy là nhiều trong số họ còn khá chậm chạp trong việc áp dụng các giải pháp ngân hàng số. Sự khác biệt rõ ràng nhất là so với các trung tâm fintech tiên tiến hơn.

Vài năm trước, khi chủ đề phát triển AI bắt đầu nóng trở lại, tôi tự nhiên trở nên tò mò và bắt đầu tìm hiểu. Và khi tôi nghiên cứu công nghệ và cách nó hoạt động, tôi nhận ra rằng trí tuệ nhân tạo có khả năng thay đổi đáng kể cách các ngân hàng xử lý tuân thủ, giúp họ cạnh tranh ngang bằng với các đối thủ fintech hiện đại, linh hoạt hơn.

Đó chính là lý do tôi quyết định thành lập công ty của mình vào năm 2023. Độ phức tạp của tuân thủ và quản lý rủi ro ngày càng tăng theo từng năm. Đối mặt với thực tế này, sứ mệnh của chúng tôi rất đơn giản: mang các giải pháp dựa trên AI đến các công ty tài chính và giúp họ đối phó với những thách thức ngày càng lớn này một cách hiệu quả hơn.

2. Từ góc nhìn chuyên môn của bạn, vai trò của các chuyên gia con người đã thay đổi như thế nào khi các công cụ AI trở nên tiên tiến hơn trong lĩnh vực tuân thủ và phát hiện gian lận?

Trước tiên, tôi muốn nói rõ một điều ngay từ đầu. Có một mối lo chung trong nhiều lĩnh vực là liệu AI có thể thay thế hoàn toàn nhân viên con người không. Và đối với các chuyên gia tuân thủ và rủi ro, câu trả lời của tôi là không—ít nhất là chưa trong thời điểm này.

Trong khi trí tuệ nhân tạo đã và đang biến đổi ngành của chúng ta, nó vẫn còn xa mới hoàn hảo. Vì vậy, sự tham gia của con người vẫn là yếu tố thiết yếu. Các quy định về tuân thủ luôn thay đổi, và phải có người chịu trách nhiệm khi hệ thống gặp lỗi hoặc sai sót. Ở mức độ hiện tại, AI vẫn còn gặp khó khăn trong việc giải thích rõ ràng các quyết định của mình, nên chưa sẵn sàng để tự vận hành độc lập. Đặc biệt trong lĩnh vực mà niềm tin và minh bạch là tối quan trọng.

Tuy nhiên, AI đang tích cực làm cho các quy trình tuân thủ dễ dàng hơn. Ví dụ, tùy theo cấu hình, các hệ thống AI giờ đây có thể phát hiện các giao dịch đáng ngờ hoặc thậm chí tạm thời chặn chúng trong khi yêu cầu xác minh thêm. Không cần con người thực sự phải xem xét từng chi tiết một cách thủ công, trừ khi có điều gì đó thực sự bất thường. Và khi các hệ thống này tiến bộ, chúng sẽ tiếp tục giảm bớt công việc thủ công, cho phép các nhóm tập trung nhiều hơn vào các nhiệm vụ tinh vi cần sự can thiệp của con người.

Tôi tin rằng chúng ta sẽ thấy sự xuất hiện của mô hình lai, trong đó các chuyên gia tuân thủ cũng sẽ ngày càng thành thạo trong việc sử dụng các công cụ AI. Họ sẽ là những người triển khai và duy trì các hệ thống AI, trong khi AI sẽ đơn giản hóa công việc của họ bằng cách phân tích dữ liệu phức tạp và đưa ra các khuyến nghị. Tuy nhiên, quyết định cuối cùng vẫn sẽ thuộc về con người.

3. Khi làm việc với AI trong các lĩnh vực nhạy cảm như tuân thủ tài chính, bạn đã tiếp cận thử thách duy trì niềm tin và trách nhiệm giải trình trong quyết định như thế nào?

Chắc chắn rồi. Như tôi đã đề cập, khi sử dụng AI trong tuân thủ, niềm tin là yếu tố then chốt.

Đó là lý do tại sao chúng tôi xây dựng các hệ thống AI của mình hoàn toàn minh bạch. Chúng không hoạt động như một “hộp đen”—mọi đề xuất của hệ thống đều dựa trên các quy tắc và dữ liệu có thể truy xuất được. Chúng tôi giữ đầy đủ hồ sơ kiểm toán về cách mỗi quyết định được đưa ra, để có thể giải thích rõ ràng. Thực hành này đã chứng minh giá trị vô cùng khi làm việc với các cơ quan quản lý.

Quyết định cuối cùng luôn thuộc về nhân viên tuân thủ. AI chỉ cung cấp một đề xuất có căn cứ rõ ràng, mà người con người có thể dễ dàng kiểm tra và quyết định chấp thuận hay từ chối.

4. Với hơn 10 năm kinh nghiệm, bạn đã thay đổi như thế nào về tư duy về tự động hóa và giám sát của con người trong suốt sự nghiệp của mình, đặc biệt bây giờ AI ngày càng tự chủ hơn?

Chắc chắn rồi. Nói rộng ra về trạng thái áp dụng AI, càng tiến xa, chúng ta càng cho phép AI tự chủ nhiều hơn—miễn là nó được kiểm thử kỹ lưỡng và tiếp tục chứng minh độ tin cậy.

Nhưng điều còn thay đổi nhiều hơn chính là vai trò của chuyên gia con người trong hệ thống này. Thay vì quản lý từng trường hợp nhỏ lẻ, các nhân viên tuân thủ giờ đây đóng vai trò giám sát chiến lược. Họ có thể xem xét toàn bộ các lô các trường hợp tương tự trong thời gian ngắn, xác nhận hiệu suất của hệ thống, và điều chỉnh mô hình dựa trên kết quả.

Nói cách khác, vai trò thực tế của nhân viên tuân thủ đang chuyển từ làm việc thủ công sang quản lý các hệ thống AI khi chúng thực hiện công việc của chúng.

5. Làm việc trong lĩnh vực quản lý rủi ro dựa trên AI đòi hỏi phải xử lý các câu hỏi đạo đức phức tạp. Bạn đã phát triển khung nào để đưa ra các quyết định có trách nhiệm khi thiết kế hoặc triển khai các giải pháp dựa trên AI chưa?

Chúng tôi xây dựng phương pháp tiếp cận dựa trên hai ý tưởng chính: giám sát rõ ràng và các nguyên tắc AI có trách nhiệm. Mỗi mô hình chúng tôi sử dụng đều có người chịu trách nhiệm. Các đánh giá rủi ro, xem xét hiệu suất và kiểm tra tuân thủ đều được thực hiện định kỳ.

Chúng tôi cũng đảm bảo hệ thống của mình có thể kiểm toán được. Nếu thuật toán đưa ra quyết định, quá trình đó có thể được xem xét và xác minh. Sự minh bạch này là phần cốt lõi trong cam kết phát triển AI có trách nhiệm của chúng tôi.

6. Trong hành trình của mình, bài học khó khăn nhất bạn đã học về giới hạn—hoặc rủi ro—khi dựa quá nhiều vào tự động hóa trong các lĩnh vực quan trọng như phòng chống gian lận là gì?

Một bài học chắc chắn cần ghi nhớ là ngay cả các mô hình được huấn luyện tốt cũng có thể “ảo tưởng”—có thể mắc lỗi một cách tinh vi nhưng nghiêm trọng.

AI có thể bỏ lỡ các thủ đoạn gian lận phức tạp, hoặc gây ra quá nhiều cảnh báo sai. Đó chính là lý do tại sao việc kết hợp AI với chuyên môn con người lại quan trọng—con người mang theo khả năng đánh giá linh hoạt và tốt hơn trong việc xem xét đạo đức và bối cảnh tổng thể mà AI chưa thể làm được.

Sự cân bằng giữa hai yếu tố này hứa hẹn mang lại kết quả tốt hơn, đáng tin cậy hơn. AI có thể dùng để xử lý khối lượng lớn công việc và giảm độ phức tạp của chúng, trong khi con người duy trì mức độ chính xác và niềm tin phù hợp.

7. Đối với các chuyên gia trẻ mới vào lĩnh vực tuân thủ, quản lý rủi ro hoặc phát triển AI ngày nay, bạn sẽ khuyên họ phát triển những nguyên tắc hoặc thói quen cá nhân nào để thành công và thích nghi trong môi trường thay đổi nhanh như hiện nay?

Trước hết và trên hết: đừng bao giờ ngừng học hỏi. Tiến bộ công nghệ không có nút “tạm dừng”, và bạn cần bắt kịp hoặc bị bỏ lại phía sau. Không có cách nào trung gian ở đây.

Thứ hai, hãy suy nghĩ rộng. Với sự tiến bộ của AI, ranh giới giữa các vai trò đang mờ đi—công nghệ, tài chính và quy định ngày càng hòa quyện. Tôi tin rằng việc sở hữu một bộ kỹ năng đa dạng và tư duy cởi mở sẽ là đặc điểm quyết định của các chuyên gia tương lai trong lĩnh vực này.

Thứ ba—và là phần tự nhiên của hai điều trên—là khả năng thích nghi. Thay đổi là liên tục, và khả năng điều chỉnh nhanh chóng sẽ là lợi thế lớn cho bạn.

Và cuối cùng, hãy phát triển kỹ năng giao tiếp mạnh mẽ và học cách làm việc nhóm. Như chúng ta đã đề cập, tuân thủ nằm tại điểm giao thoa của kinh doanh, công nghệ và pháp luật. Do đó, khả năng chuyển đổi giữa các lĩnh vực và giao tiếp với những người từ các lĩnh vực này sẽ là kỹ năng quý giá bạn cần trau dồi.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim