
La gente habla cerca de un meta signo fuera de la sede de la compañía en Menlo Park, California.
Jeff Chiu/AP
escondite
alternar
Jeff Chiu/AP
Durante años, cuando Meta lanzó nuevas funciones para Instagram, WhatsApp y Facebook, los equipos de revisores evaluaron los posibles riesgos: ¿podría violar la privacidad de los usuarios? ¿Podría causar daño a los menores? ¿Podría empeorar la propagación del contenido engañoso o tóxico?
Hasta hace poco, lo que se conoce dentro de Meta como revisiones de privacidad e integridad se realizó casi por completo por evaluadores humanos.
Pero ahora, según los documentos internos de la compañía obtenidos por NPR, hasta el 90% de todas las evaluaciones de riesgos pronto se automatizarán.
En la práctica, esto significa que cosas como las actualizaciones críticas de los algoritmos de Meta, las nuevas características de seguridad y los cambios en la forma en que se permite compartir el contenido en las plataformas de la compañía será aprobado principalmente por un sistema impulsado por inteligencia artificial, que ya no está sujeto al escrutinio por parte de los empleados con tarea de debatir cómo un cambio de plataforma podría tener repercusiones no abordinadas o ser mal utilizados.
Dentro de Meta, el cambio se ve como una victoria para los desarrolladores de productos, que ahora podrán lanzar actualizaciones y características de la aplicación más rápidamente. Pero los meta empleados actuales y anteriores temen que el nuevo impulso de automatización tenga el costo de permitir que la IA haga determinaciones difíciles sobre cómo las aplicaciones de Meta podrían generar daño en el mundo real.
“En la medida en que este proceso significa funcionalmente que se lanzarán más cosas más rápido, con un escrutinio y oposición menos rigurosos, significa que está creando riesgos más altos”, dijo un ex ejecutivo de Meta que solicitó el anonimato por temor a las represalias de la compañía. “Es menos probable que se eviten las externalidades negativas de los cambios en el producto antes de que comiencen a causar problemas en el mundo”.
Meta dijo en un comunicado que ha invertido miles de millones de dólares para apoyar la privacidad del usuario.
Desde 2012, Meta ha sido debajo del reloj de la Comisión Federal de Comercio después de que la agencia llegó a un acuerdo con la compañía sobre cómo maneja la información personal de los usuarios. Como resultado, se han requerido revisiones de privacidad para productos, según los empleados meta actuales y anteriores.
En su declaración, Meta dijo que los cambios en la revisión del riesgo del producto están destinados a optimizar la toma de decisiones, y agregó que la “experiencia humana” todavía se está utilizando para “problemas novedosos y complejos”, y que solo se están automatizando “decisiones de bajo riesgo”.
Pero los documentos internos revisados por NPR muestran que Meta está considerando la automatización de las revisiones para áreas sensibles que incluyen seguridad de IA, riesgo juvenil y una categoría conocida como integridad que abarca cosas como contenido violento y la propagación de falsedades.
Ex meta empleado: ‘Los ingenieros no son expertos en privacidad ‘
Una diapositiva que describe el nuevo proceso dice que los equipos de productos ahora en la mayoría de los casos recibirán una “decisión instantánea” después de completar un cuestionario sobre el proyecto. Esa decisión impulsada por la IA identificará áreas de riesgo y requisitos para abordarlos. Antes de lanzarse, el equipo de productos debe verificar que haya cumplido esos requisitos.

El fundador y CEO de Meta, Mark Zuckerberg, habla en Llamacon 2025, una conferencia de desarrolladores de IA, en Menlo Park, California, martes 29 de abril de 2025. (AP Photo/Jeff Chiu)
Jeff Chiu/AP/AP
escondite
alternar
Jeff Chiu/AP/AP
Según el sistema anterior, las actualizaciones de productos y características no se pueden enviar a miles de millones de usuarios hasta que recibieron la bendición de los evaluadores de riesgos. Ahora, los ingenieros que construyen meta productos están facultados para emitir sus propios juicios sobre los riesgos.
En algunos casos, incluidos los proyectos que involucran nuevos riesgos o cuando un equipo de producto quiere comentarios adicionales, los proyectos recibirán una revisión manual de humanos, dice la diapositiva, pero no será por defecto, como solía ser. Ahora, los equipos de construcción de productos harán esa llamada.
“La mayoría de los gerentes de productos e ingenieros no son expertos en privacidad y ese no es el foco de su trabajo. No es en lo que se evalúan principalmente y no es lo que están incentivados para priorizar”, dijo Zvika Krieger, directora de innovación responsable en META hasta 2022. Los equipos de productos de Meta están evaluados en el rápido lanzamiento de productos, entre otros metrics.
“En el pasado, algunos de estos tipos de autoevaluaciones se han convertido en ejercicios de verificación de cajas que pierden riesgos significativos”, agregó.
Krieger dijo que si bien hay espacio para mejorar la racionalización de las revisiones en Meta a través de la automatización: “Si lo empuja demasiado lejos, inevitablemente la calidad de la revisión y los resultados se van a sufrir”.
Las preocupaciones minimizadas de meta minimizan que el nuevo sistema introducirá problemas en el mundo, señalando que está auditando las decisiones que toman los sistemas automatizados para los proyectos que no son evaluados por humanos.
Los meta documentos sugieren que sus usuarios en la Unión Europea podrían estar algo aislados de estos cambios. Un anuncio interno dice que la toma de decisiones y la supervisión de los productos y los datos de los usuarios en la Unión Europea permanecerán con la sede europea de Meta en Irlanda. La UE tiene regulaciones que rigen plataformas en línea, incluida la Ley de Servicios Digitalesque requiere que las empresas, incluida Meta, vigilen más estrictamente sus plataformas y protejan a los usuarios del contenido dañino.
Algunos de los cambios en el proceso de revisión del producto fueron Primero reportado Según la información, un sitio de noticias tecnológicas. Los documentos internos vistos por NPR muestran que los empleados fueron notificados sobre la renovación no mucho después de la empresa finalizó su programa de verificación de hechos y aflojó sus políticas de discurso de odio.
En conjunto, los cambios reflejan un nuevo énfasis en Meta a favor de un discurso más desenfrenado y actualizan más rápidamente sus aplicaciones, un desmantelamiento de varias barandillas que la compañía ha promulgado a lo largo de los años para frenar el mal uso de sus plataformas. Los grandes cambios en la compañía también siguen los esfuerzos del CEO Mark Zuckerberg para que se convierta en el favor del presidente Trump, cuya victoria electoral Zuckerberg ha llamado un “punto de inflexión cultural”.
Se está moviendo más rápido para evaluar los riesgos ‘autodestructivo ‘?
Otro factor que impulsa los cambios a las revisiones de productos es un más amplio, empuje de años Para aprovechar la IA para ayudar a la compañía a moverse más rápido en medio de la creciente competencia de Tiktok, OpenAi, Snap y otras compañías tecnológicas.
Meta dijo a principios de esta semana que confía más en la IA para ayudar a hacer cumplir sus políticas de moderación de contenido.
“Estamos comenzando a ver (modelos de idiomas grandes) que operan más allá del rendimiento humano para áreas de políticas seleccionadas”, escribió la compañía en sus últimos Informe de integridad trimestral. Dijo que también está utilizando esos modelos de IA para evaluar algunas publicaciones que la compañía está “muy segura”, no rompa sus reglas.
“Esto libera la capacidad para nuestros revisores que les permiten priorizar su experiencia en contenido que es más probable que viole”, dijo Meta.
Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change, que pasó una década trabajando en políticas públicas en Facebook, dijo que usar sistemas automatizados para marcar riesgos potenciales podría ayudar a reducir los esfuerzos duplicados.
“Si desea moverse rápidamente y tener alta calidad, necesitará incorporar más IA, porque los humanos solo pueden hacer mucho en un período de tiempo”, dijo. Pero agregó que esos sistemas también necesitan tener controles y equilibrios de humanos.
Otro ex meta empleado, que habló bajo condición de anonimato porque también temen la represalia de la compañía, cuestionó si moverse más rápido en las evaluaciones de riesgos es una buena estrategia para Meta.
“Esto casi parece autodestructivo. Cada vez que lanzan un nuevo producto, hay mucho escrutinio en él, y ese escrutinio encuentra regularmente problemas que la compañía debería haber tomado más en serio”, dijo el ex empleado.
Michel Prootti, director de privacidad de Meta para el producto, dijo en una publicación de marzo sobre su herramienta de comunicaciones interna, Workplace, que la compañía está “empoderando a los equipos de productos” con el objetivo de “evolucionar los procesos de gestión de riesgos de Meta”.
El despliegue de automatización ha aumentado hasta abril y mayo, dijo un meta empleado actual familiarizado con las evaluaciones de riesgos de productos que no estaban autorizadas para hablar públicamente sobre las operaciones internas.
Prootti dijo que la automatización de las revisiones de riesgos y las que los equipos de productos dicen más sobre los riesgos potenciales planteados por las actualizaciones de productos en el 90% de los casos está destinado a “simplificar la toma de decisiones”. Pero algunos expertos dicen que el resumen rosado de eliminar a los humanos del proceso de evaluación de riesgos minimiza en gran medida los problemas que los cambios podrían causar.
“Creo que es bastante irresponsable dada la intención de por qué existimos “, dijo el meta empleado cerca del proceso de revisión de riesgos.” Proporcionamos la perspectiva humana de cómo las cosas pueden salir mal “.
¿Tiene información sobre los cambios de Meta? Comuníquese con estos autores a través de comunicaciones encriptadas en la señal. Bobby Allyn está disponible en Ballyn.77 y Bond Shannon está disponible en Shannonbond.01