Es una empresa de redes sociales con estrechos vínculos con la administración entrante de Trump. Utiliza un sistema de «notas comunitarias» para luchar contra la desinformación y permite que los comentarios de odio ondeen la bandera de «libertad de expresión». Se está estableciendo en Texas. La dirige un sujeto que vale cientos de miles de millones de dólares y tiene el sentido de la moda de alguien un par de décadas más joven. No, no hablamos de X. Es Meta.
Pronto será difícil distinguir la diferencia. Meta instaurará un nuevo sistema de regulación de contenidos y fact-checking, en favor de «notas comunitarias» de X; una comparación que Joel Kaplan, director de política global de Meta, hizo directamente en una entrada de blog. Tanto el CEO Mark Zuckerberg como Kaplan utilizaron la justificación de «libertad de expresión» para introducir cambios alarmantemente permisivos en su política de «Conducta de odio». La semana pasada, nombró Dana White, amigo de Donald Trump y CEO del Ultimate Fighting Championship, miembro de su junta directiva, y ascendió a Kaplan, un partidario firme en los círculos republicanos.
Copiar las malas prácticas
«Llevo años esperando que Meta elimine este programa. Pero no de esta manera y en este momento tan desnudamente político», sugiere Alexios Matzarlis, director de la Iniciativa de Seguridad, Confianza y Protección de la Universidad de Cornell y director fundador de la International Fact-Checking Network, quien ayudó a establecer la asociación entre Facebook y los fact-checkers en 2016.
X debería figurar como una moraleja en lugar de una estrella del norte para el CEO de Meta. Según los informes, tanto los anunciantes como los usuarios han huido a montones desde que Musk tomó el timón de Twitter. Las líneas de tiempo están cada vez más llenas de cuentas de extrema derecha que publican un flujo constante de desinformación. No obstante, Meta ha dejado claro que este es el futuro que quiere. «Por muy bienintencionados que hayan sido muchos de estos esfuerzos, se ampliaron a tal punto que estamos cometiendo demasiados errores, frustrando a nuestros usuarios. Con demasiada frecuencia nos interponemos en el camino de la libertad de expresión que juramos defender. Queremos arreglar eso y volver a ese compromiso fundamental», escribió Kaplan sobre el problema de fact-checking y otras herramientas de moderación.
La apelación a la «libertad de expresión» nos recuerda al discurso repetitivo de Musk, aunque en el caso de Meta se trata más de un esfuerzo por quedar bien con MAGA, que de un compromiso con ideales abstractos. Por años, la corporación ha tratando de contrarrestar las acusaciones de parcialidad de los conservadores y ahora ha optado por abandonar la lucha por completo.
¿Pero a qué precio? Bueno, al más caro. La eliminación del fact-checking no es irreprobable, las notas de la comunidad pueden ser eficaces como parte de un sistema de moderación más amplio. Pero en el anuncio de los cambios por parte de Kaplan, o en el video de Zuckerberg que lo acompañaba, había pocas esperanzas de que se tratara de una mejora. «Por lo que he visto hasta ahora, parece que será un desastre absoluto», sugiere Alex Mahavedan, director del proyecto de alfabetización mediática digital MediaWise del Poynter Institute. El Instituto Poynter también gestiona PolitiFact, que es socio de Meta en las labores de revisión de contenido y comprobación de información. «Al poner tanto énfasis en algo tan nebuloso como la ‘libertad de expresión’, sin olvidar que el fact-checking es en sí misma una forma de expresión, Meta corre el riesgo de caer en una permisividad que permita el florecimiento de la desinformación», expone Mahavedan. Y no es el único.
La verificación de contenidos en manos de externos
«Meta siempre ha sido el refugio para la desinformación rusa, china e iraní», puntualiza Gordon Crovitz, codirector ejecutivo de NewsGuard, una empresa que ofrece una herramienta para evaluar la fiabilidad de la información en línea. El fact-checking no es perfecto; Croviz afirma que NewsGuard ha rastreado varias «narrativas falsas» en las plataformas de Meta. El modelo de notas comunitarias con el que Meta sustituirá a su ejército de comprobación de hechos aún puede ser eficaz. Pero la investigación de Mahavedan y otros investigadores demuestra que las soluciones de subcontratación pasan por alto vastas franjas de desinformación. Y a menos que Meta se comprometa a ofrecer la máxima transparencia en la aplicación y el uso de su versión, será imposible saber si los sistemas funcionan.
También es poco probable que el cambio a las notas de la comunidad resuelvan el problema de la «parcialidad» que tanto preocupa a los ejecutivos de Meta, dado que parece improbable que exista en primer lugar. «El motivador de todo este cambio de las políticas y la adquisición de Twitter por Musk es esta acusación de que las empresas de medios sociales están sesgadas contra los conservadores. Pero no hay pruebas reales de eso», emitió David Rand, científico del comportamiento del MIT.