Considerações Éticas na Implementação do DeepSeek AI no setor Fintech


Devin Partida é a Editora-Chefe da ReHack. Como escritora, o seu trabalho foi destaque na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.


Descubra as principais notícias e eventos do setor financeiro tecnológico!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e outros


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também mais preocupantes, no fintech atualmente. Agora que a DeepSeek causou impacto no espaço de IA, suas possibilidades e armadilhas específicas exigem atenção.

Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou o nível com o lançamento do seu modelo DeepSeek-R1 em 2025.

O algoritmo é de código aberto e gratuito, mas apresentou desempenho semelhante ao de alternativas proprietárias pagas. Assim, representa uma oportunidade de negócio tentadora para empresas de fintech que desejam capitalizar a IA, mas também levanta questões éticas.


Leituras recomendadas:

*   **O Modelo R1 da DeepSeek Gera Debate sobre o Futuro do Desenvolvimento de IA**
*   **Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Como acontece com muitas aplicações de IA, a privacidade dos dados é uma preocupação. Modelos de linguagem de grande escala (LLMs), como o DeepSeek, requerem uma quantidade substancial de informações, e, em um setor como o fintech, grande parte desses dados pode ser sensível.

A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode acessar todas as informações de centros de dados de propriedade chinesa ou solicitar dados às empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados a espionagem estrangeira e propaganda.

Vazamentos de dados de terceiros também são uma preocupação. A DeepSeek já sofreu uma violação que expôs mais de 1 milhão de registros, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés em IA

Modelos de aprendizado de máquina como o DeepSeek são propensos a viés. Como os modelos de IA são altamente capazes de identificar e aprender com padrões sutis que os humanos podem não perceber, eles podem adotar preconceitos inconscientes presentes nos dados de treinamento. Ao aprenderem com essas informações tendenciosas, podem perpetuar e agravar problemas de desigualdade.

Esses receios são especialmente relevantes no setor financeiro. Como as instituições financeiras historicamente restringiram oportunidades a minorias, grande parte de seus dados históricos mostra viés significativo. Treinar o DeepSeek com esses conjuntos de dados pode levar a ações ainda mais tendenciosas, como a IA negando empréstimos ou hipotecas com base na etnia de alguém, e não na sua capacidade de pagamento.

Confiança do Consumidor

À medida que questões relacionadas à IA ganham destaque na mídia, o público em geral tem ficado cada vez mais desconfiado desses serviços. Isso pode levar a uma erosão da confiança entre uma fintech e seus clientes se ela não gerenciar essas preocupações de forma transparente.

A DeepSeek pode enfrentar uma barreira única aqui. A empresa, supostamente, construiu seu modelo por apenas 6 milhões de dólares e, como uma empresa chinesa de rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar seus dados a um modelo de IA de baixo orçamento e desenvolvido rapidamente, especialmente quando o governo chinês pode exercer alguma influência.

Como Garantir uma Implementação Segura e Ética do DeepSeek

Essas considerações éticas não significam que as empresas de fintech não possam usar o DeepSeek de forma segura, mas ressaltam a importância de uma implementação cuidadosa. Organizações podem implantar o DeepSeek de forma ética e segura seguindo estas melhores práticas.

Executar o DeepSeek em Servidores Locais

Um dos passos mais importantes é rodar a ferramenta de IA em centros de dados domésticos. Embora a DeepSeek seja uma empresa chinesa, seus pesos de modelo são de código aberto, permitindo sua execução em servidores nos EUA, o que ajuda a mitigar preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente confiáveis. Idealmente, as fintechs hospedariam o DeepSeek em seu próprio hardware. Quando isso não for possível, a liderança deve escolher um provedor com cuidado, apenas fazendo parcerias com aqueles que garantam alta disponibilidade e padrões de segurança como ISO 27001 e NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao desenvolver uma aplicação baseada no DeepSeek, as fintechs devem considerar quais dados o modelo pode acessar. A IA deve ter acesso apenas ao necessário para desempenhar sua função. Também é ideal eliminar quaisquer informações de identificação pessoal (PII) desnecessárias dos dados acessados.

Quando o DeepSeek contém menos detalhes sensíveis, qualquer violação terá impacto menor. Minimizar a coleta de PII também é fundamental para estar em conformidade com leis como o Regulamento Geral de Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).

Implementar Controles de Cibersegurança

Leis como o GDPR e a GLBA geralmente exigem medidas de proteção para evitar violações. Mesmo fora dessas regulamentações, o histórico de vazamentos do DeepSeek destaca a necessidade de medidas adicionais de segurança.

Pelo menos, as fintechs devem criptografar todos os dados acessíveis à IA, tanto em repouso quanto em trânsito. Testes de penetração regulares para identificar e corrigir vulnerabilidades também são recomendados.

As organizações de fintech também devem considerar monitoramento automatizado de suas aplicações de DeepSeek, pois essa automação pode economizar cerca de 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e eficazes.

Auditar e Monitorar Todas as Aplicações de IA

Mesmo após seguir essas etapas, é fundamental manter uma vigilância constante. Audite a aplicação baseada no DeepSeek antes de implantá-la, procurando sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis inicialmente, portanto, revisões contínuas são essenciais.

Crie uma equipe dedicada para monitorar os resultados da IA e garantir que ela permaneça ética e em conformidade com as regulamentações. Ser transparente com os clientes sobre essas práticas também ajuda a construir confiança em um campo muitas vezes duvidoso.

Empresas de Fintech Devem Considerar a Ética na IA

Os dados de fintechs são particularmente sensíveis, portanto todas as organizações desse setor devem levar a sério ferramentas dependentes de dados, como a IA. O DeepSeek pode ser um recurso promissor, mas seu uso só é válido se seguir rígidos princípios éticos e de segurança.

Assim que os líderes de fintech compreenderem a necessidade de esses cuidados, poderão garantir que seus investimentos em DeepSeek e outros projetos de IA permaneçam seguros e justos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)