¿Te has dado cuenta de que los reguladores parecen tener favoritos? La UE sigue yendo contra plataformas como Telegram, X y TikTok—básicamente cualquier sitio donde la gente pueda expresarse libremente sin que un filtro corporativo decida qué es "aceptable". Mientras tanto, los grandes actores tecnológicos con sus algoritmos misteriosos que entierran publicaciones de forma silenciosa, ¿esos? Esos pasan desapercibidos, aunque alberguen mucho más contenido problemático.
Es una locura si lo piensas. Las plataformas que permiten que las conversaciones surjan de forma orgánica reciben todo el peso de las exigencias de cumplimiento. Pero aquellas que lo curan todo algorítmicamente—controlando lo que millones ven y no ven—de alguna manera pasan bajo el radar. Te hace preguntarte si realmente se trata de contenido ilegal o de controlar qué narrativas se amplifican.
Todo parece al revés. Si de verdad te preocupa el contenido dañino, ¿no empezarías por las plataformas que tienen los sistemas más sofisticados, ya sea para detectarlo o para ocultarlo? En cambio, lo que vemos es una aplicación de la ley que parece más gestión de narrativas que protección genuina del usuario.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
6
Republicar
Compartir
Comentar
0/400
Hash_Bandit
· hace1h
No voy a mentir, esto huele a los primeros días de los pools de minería: las operaciones pequeñas e independientes son aniquiladas por los reguladores mientras que los mega-pools con estructuras de gobernanza opacas siguen funcionando sin ser tocados. El mismo patrón de aplicación asimétrica, pero en otra capa.
Ver originalesResponder0
SchroedingerMiner
· hace9h
Este truco es demasiado familiar, así es como aplican la ley con doble rasero.
Ver originalesResponder0
MetaMasked
· hace9h
Esto ya es absurdo, en resumen, solo las "plataformas obedientes" tienen futuro, ¿no?
Ver originalesResponder0
GasFeeLover
· hace9h
Me parto de risa, el doble rasero es de manual... Los algoritmos de las grandes empresas lo controlan todo y encima pueden esquivar la regulación, mientras que las plataformas abiertas son las que reciben todos los palos. Esta lógica es increíble.
Ver originalesResponder0
NFTBlackHole
· hace9h
Esto ya es absurdo, atacan las plataformas de código abierto pero hacen la vista gorda con las grandes tecnológicas, está claro que quieren controlar la opinión pública.
Ver originalesResponder0
RugpullSurvivor
· hace9h
Ngl, esto es el típico doble rasero: a las plataformas pequeñas las vigilan de cerca, pero nadie controla el algoritmo opaco de las grandes empresas... irónico.
¿Te has dado cuenta de que los reguladores parecen tener favoritos? La UE sigue yendo contra plataformas como Telegram, X y TikTok—básicamente cualquier sitio donde la gente pueda expresarse libremente sin que un filtro corporativo decida qué es "aceptable". Mientras tanto, los grandes actores tecnológicos con sus algoritmos misteriosos que entierran publicaciones de forma silenciosa, ¿esos? Esos pasan desapercibidos, aunque alberguen mucho más contenido problemático.
Es una locura si lo piensas. Las plataformas que permiten que las conversaciones surjan de forma orgánica reciben todo el peso de las exigencias de cumplimiento. Pero aquellas que lo curan todo algorítmicamente—controlando lo que millones ven y no ven—de alguna manera pasan bajo el radar. Te hace preguntarte si realmente se trata de contenido ilegal o de controlar qué narrativas se amplifican.
Todo parece al revés. Si de verdad te preocupa el contenido dañino, ¿no empezarías por las plataformas que tienen los sistemas más sofisticados, ya sea para detectarlo o para ocultarlo? En cambio, lo que vemos es una aplicación de la ley que parece más gestión de narrativas que protección genuina del usuario.