Escribo estas líneas desde el ‘limbo’ digital. Hace dos meses, por usar una expresión coloquial y costumbrista que cualquier vecino de mi ciudad entendería, el algoritmo de Meta decidió que soy un peligro. Pero esta no es la típica queja de alguien que ha perdido alcance o ‘likes’. Esto es una denuncia contra la frialdad de una máquina que, bajo una supuesta bandera de seguridad, me recuerda cada día que ‘MI PERFIL TIENE PROBLEMAS’. Lo que para mí es una injusticia burocrática de una empresa extranjera, para una persona que realmente esté atravesando un momento de oscuridad y busque ayuda en redes, este mensaje sistemático y acusador es una forma de tortura mental. ¿En qué momento permitimos que el código de Mark Zuckerberg se convirtiera en juez, parte y verdugo de nuestra salud emocional sin ningún tipo de supervisión humana ni contexto cultural?

Hace dos meses, el algoritmo de Meta decidió que yo era un peligro. ¿Mi «delito»? Usar la frase «mejor morirse», una expresión coloquial, una frase hecha que en mi ciudad usamos para exagerar un agobio o una situación cómica.
Cualquier humano entendería el contexto. Pero para la IA de Facebook, he infringido sus normas comunitarias. El resultado: un «shadowban» eterno. Cada vez que publico algo, recibo el mismo mensaje desalentador: «La difusión de tu post está limitada porque TU PERFIL TIENE PROBLEMAS».
El verdadero peligro: La tortura mental del «Tienes problemas»
He hablado con soporte (soy usuario verificado, pago por ello) y su respuesta es una encogida de hombros: «Es un error del algoritmo, no podemos hacer nada. Espera». Pero esto ya no va de mi alcance o de mis likes. Esto va de algo mucho más profundo:
- La paradoja de la prevención: Si una persona tuviera realmente pensamientos suicidas y Facebook detectara su fragilidad, ¿la solución es castigarla?
- El estigma sistemático: Imagina a alguien vulnerable leyendo CADA DÍA que «tiene problemas», que su voz no cuenta y que está marcado por el sistema. Eso no es prevención, es tortura mental.
- La moral de silicio: Estamos bajo el yugo de un algoritmo diseñado en California que no entiende el español, ni nuestra cultura, ni la ironía, pero que tiene el poder de silenciarnos.
¿Dónde está la responsabilidad legal?
No podemos permitir que una empresa extranjera opere en España con algoritmos que fallan y que, en lugar de ayudar, hunden el ánimo del usuario. Pienso que el Gobierno de España debería actuar directamente contra los responsables de estas herramientas —con Mark Zuckerberg a la cabeza— por la falta de transparencia y el daño psicológico que estos «errores» pueden causar.
¿Es aceptable que una IA te torture mentalmente por un error de contexto?
Llevo 2 meses en «la nevera» de Meta por usar una frase hecha. Lo grave no es el alcance limitado, es el mensaje que recibo CADA DÍA: «TU PERFIL TIENE PROBLEMAS».
Imagina a una persona vulnerable leyendo esto a diario. La «seguridad» de Zuckerberg es una negligencia que señala al débil en lugar de ayudarle. Es tortura automatizada bajo una moral de silicio que ni siquiera entiende nuestro idioma.
¿Hasta cuándo permitiremos que estas plataformas operen sin supervisión humana real?
¿Qué pensáis vosotros? ¿Es aceptable que una máquina nos dicte sentencia sin derecho a réplica? ¿Creéis que este tipo de mensajes de «tu perfil tiene problemas» son peligrosos para la salud mental de personas vulnerables?
Os leo en los comentarios (si es que Facebook deja que este post llegue a alguien).
— (c) Es un post de Alfonso Saborido
Prohibida su reproducción sin en el oportuno permiso.
Si me compartes este post, me ayudar a la visibilidad del blog. ¡Gracias!
Descubre más desde Alfonso Saborido blog
Suscríbete y recibe las últimas entradas en tu correo electrónico.
Realmente no es aceptable!
Probando errores
Probando de nuevo