Bluesky implementa su propio equipo de moderadores capacitados para analizar informes de usuarios y utilizar sistemas automáticos.

Bluesky implementa su propio equipo de moderadores capacitados para analizar informes de usuarios y utilizar sistemas automáticos.

En un esfuerzo por mantener un ambiente seguro y cumplir con las normas, la red social descentralizada Bluesky ha implementado un equipo de moderación a tiempo completo. Este equipo se encarga de revisar las denuncias de los usuarios y los contenidos identificados por sistemas automatizados, resultando en la suspensión de alrededor de 6.500 elementos, incluyendo cuentas y publicaciones.

Desde que Twitter cambió de rumbo, Bluesky ha experimentado un crecimiento significativo, alcanzando los 3 millones de usuarios. Para garantizar la moderación adecuada, la plataforma ha implementado medidas internas y herramientas para que los individuos y las comunidades puedan denunciar publicaciones, cuentas o listas a través de la aplicación.

Las denuncias presentadas son analizadas por un equipo de moderadores humanos especializados. Desde la primavera pasada, este equipo ha revisado más de 358.000 denuncias individuales con el objetivo de verificar si se han infringido las políticas de la plataforma.

Según el Informe de Transparencia de Bluesky correspondiente a 2023, se estima que alrededor del 5,6% de los usuarios activos, es decir, 76.699 cuentas individuales, han presentado una o más denuncias. Además, se han recibido denuncias contra 45,861 cuentas individuales.

En casos graves, la compañía puede llevar a cabo suspensiones temporales o permanentes, lo que ha resultado en la suspensión de 4.667 cuentas y 1.817 contenidos individuales.

Bluesky también utiliza herramientas automatizadas para detectar contenido que infringe las normas y actuar rápidamente sobre ellos, ya sea agregando etiquetas de advertencia o derivándolos al equipo de moderación. Además, la plataforma no tolera contenido de abuso y explotación infantil, por lo que se eliminan las publicaciones que lo contengan.

Además de las medidas adoptadas hasta la fecha, Bluesky ha anunciado la incorporación de nuevas funciones de moderación, como la posibilidad de silenciar palabras y desactivar temporalmente cuentas. También se implementará un programa colaborativo para combatir la desinformación en las publicaciones, similar a las "Notas de la Comunidad" de la antigua Twitter, donde los usuarios agregan contexto para desmentir información falsa o engañosa.

Otra novedad será la llamada "moderación componible o acoplable", que se basará en un ecosistema de proveedores externos. Este enfoque incluirá una moderación básica por defecto y filtros personalizados adicionales, como el sistema de etiquetado, que podrá ser generado por servicios de terceros, administradores de la comunidad o los propios usuarios.

En cuanto a las herramientas de moderación, la red social permitirá la creación de listas de moderación para silenciar y bloquear cuentas en toda una comunidad. Los autores de las publicaciones podrán agregar etiquetas para informar a los usuarios sobre el tipo de contenido que encontrarán y ajustar la configuración para decidir quién puede responder.

Además del equipo de moderación humano, Bluesky cuenta con un marco de herramientas automatizadas que ayuda en la lucha contra el spam al identificar patrones de comportamiento y marcar proactivamente contenido inaceptable antes de que sea visto o denunciado por usuarios humanos.

Categoría

Tecnología