Já alguma vez te perguntaste se estamos a ficar demasiado confortáveis com assistentes de IA? Aqui vai uma opinião polémica: usar LLMs para qualquer coisa além de programação pode estar a afetar a nossa forma de pensar.
A parte do código faz sentido – autocompletar, debugging, o que for. Mas quando se trata de pensar realmente, escrever, tomar decisões? Aí as coisas ficam mais duvidosas. Sempre que recorres a uma IA para formar opiniões ou estruturar os teus pensamentos, estás basicamente a subcontratar as funções principais do teu cérebro.
Pensa nisso. Estes modelos são treinados em padrões já existentes. Dão-te versões processadas e médias do pensamento humano. Quanto mais confias neles para assuntos não técnicos, mais o teu próprio pensamento crítico começa a espelhar a lógica das máquinas em vez de se desenvolver de forma orgânica.
Não estou a dizer que a IA é má. Só acho que talvez devêssemos definir alguns limites sobre aquilo que deixamos estas ferramentas gerir. O teu código? Claro. A tua cognição real? Talvez seja melhor manter isso humano.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
5
Repostar
Compartilhar
Comentário
0/400
DeFiChef
· 8h atrás
Para ser sincero, isso soa um pouco absoluto... Eu realmente escrevo textos mais rápido com o ChatGPT, mas isso é porque tenho preguiça de escrever, não porque a minha mente regrediu ahah. Na verdade, usar IA para filtrar informações e organizar ideias até me faz pensar de forma mais clara. O problema não está na ferramenta, mas sim em como a usas.
Ver originalResponder0
BrokeBeans
· 8h atrás
É verdade, agora já nem peço ao ChatGPT para pensar por mim, sinto mesmo que o cérebro fica mais preguiçoso.
Ver originalResponder0
AirdropJunkie
· 8h atrás
Ngl, esta opinião é um pouco afetada... Eu uso o GPT para escrever código e poupo o cérebro para pensar em estratégias, não é melhor assim? O verdadeiro problema é que as pessoas já são preguiçosas por natureza, a IA é só uma desculpa.
Ver originalResponder0
BlockchainBrokenPromise
· 8h atrás
Para ser sincero, esta opinião é um pouco rígida... Usar IA para escrever textos significa que o cérebro está a regredir? Pelo contrário, eu acho que o importante é saber como usar, uma boa ferramenta deve ser utilizada. O essencial é não confiar cegamente, é preciso saber discernir.
Ver originalResponder0
QuorumVoter
· 8h atrás
Para ser honesto, acho que essa opinião é um pouco exagerada... Eu uso o GPT todos os dias para escrever coisas e, na verdade, sinto que me obriga a organizar bem as ideias antes de as inserir, ahah.
Já alguma vez te perguntaste se estamos a ficar demasiado confortáveis com assistentes de IA? Aqui vai uma opinião polémica: usar LLMs para qualquer coisa além de programação pode estar a afetar a nossa forma de pensar.
A parte do código faz sentido – autocompletar, debugging, o que for. Mas quando se trata de pensar realmente, escrever, tomar decisões? Aí as coisas ficam mais duvidosas. Sempre que recorres a uma IA para formar opiniões ou estruturar os teus pensamentos, estás basicamente a subcontratar as funções principais do teu cérebro.
Pensa nisso. Estes modelos são treinados em padrões já existentes. Dão-te versões processadas e médias do pensamento humano. Quanto mais confias neles para assuntos não técnicos, mais o teu próprio pensamento crítico começa a espelhar a lógica das máquinas em vez de se desenvolver de forma orgânica.
Não estou a dizer que a IA é má. Só acho que talvez devêssemos definir alguns limites sobre aquilo que deixamos estas ferramentas gerir. O teu código? Claro. A tua cognição real? Talvez seja melhor manter isso humano.