Já reparaste como os reguladores parecem ter favoritos? A UE continua a atacar plataformas como o Telegram, X e TikTok—basicamente qualquer sítio onde as pessoas possam realmente expressar-se sem um filtro corporativo a decidir o que é "aceitável". Entretanto, os grandes players tecnológicos com os seus algoritmos misteriosos a esconder publicações de forma discreta? Esses passam impunes, mesmo estando sentados em cima de muito mais conteúdo problemático.
É surreal quando se pensa nisso. As plataformas que permitem conversas orgânicas são massacradas com exigências de conformidade. Mas aquelas que curam tudo algoritmicamente—controlando o que milhões veem ou deixam de ver—de alguma forma passam despercebidas. Faz pensar se a questão é mesmo o conteúdo ilegal, ou o controlo sobre quais narrativas são amplificadas.
Tudo isto parece ao contrário. Se estivesses realmente preocupado com conteúdo nocivo, não começarias pelas plataformas que têm os sistemas mais sofisticados para o detetar ou esconder? Em vez disso, vemos uma aplicação da lei que mais parece gestão de narrativa do que verdadeira proteção dos utilizadores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
6
Repostar
Compartilhar
Comentário
0/400
Hash_Bandit
· 4h atrás
Honestamente, isto faz lembrar os primeiros dias das mining pools—pequenas operações independentes a serem dizimadas pelos reguladores enquanto as mega-pools com estruturas de governação opacas continuam a operar intocadas. O mesmo padrão de aplicação assimétrica, apenas noutro nível.
Ver originalResponder0
SchroedingerMiner
· 12h atrás
Este truque é demasiado familiar, é exatamente assim que aplicam a lei com dois pesos e duas medidas.
Ver originalResponder0
MetaMasked
· 12h atrás
Isto é ridículo, basicamente só as "plataformas obedientes" é que têm hipótese de sobreviver.
Ver originalResponder0
GasFeeLover
· 12h atrás
Que piada, que duplo critério levado ao extremo... Os grandes grupos com os seus algoritmos têm tudo controlado e ainda conseguem escapar à regulação, enquanto as plataformas abertas é que levam porrada. Esta lógica é mesmo de génio.
Ver originalResponder0
NFTBlackHole
· 12h atrás
Isto é absurdo, atacam as plataformas open source mas fazem vista grossa às grandes empresas tecnológicas, está claro que querem controlar a opinião pública.
Ver originalResponder0
RugpullSurvivor
· 12h atrás
Isto é mesmo um típico caso de dois pesos e duas medidas, as pequenas plataformas são constantemente vigiadas, enquanto os algoritmos das grandes empresas são uma caixa preta e ninguém faz nada... irónico.
Já reparaste como os reguladores parecem ter favoritos? A UE continua a atacar plataformas como o Telegram, X e TikTok—basicamente qualquer sítio onde as pessoas possam realmente expressar-se sem um filtro corporativo a decidir o que é "aceitável". Entretanto, os grandes players tecnológicos com os seus algoritmos misteriosos a esconder publicações de forma discreta? Esses passam impunes, mesmo estando sentados em cima de muito mais conteúdo problemático.
É surreal quando se pensa nisso. As plataformas que permitem conversas orgânicas são massacradas com exigências de conformidade. Mas aquelas que curam tudo algoritmicamente—controlando o que milhões veem ou deixam de ver—de alguma forma passam despercebidas. Faz pensar se a questão é mesmo o conteúdo ilegal, ou o controlo sobre quais narrativas são amplificadas.
Tudo isto parece ao contrário. Se estivesses realmente preocupado com conteúdo nocivo, não começarias pelas plataformas que têm os sistemas mais sofisticados para o detetar ou esconder? Em vez disso, vemos uma aplicação da lei que mais parece gestão de narrativa do que verdadeira proteção dos utilizadores.