El panorama actual
El futuro de la información en la era de la inteligencia artificial generativa está en un punto de inflexión, y la pregunta central que resuena en los círculos tecnológicos es: ¿quién decide lo que la IA nos dice? Esta inquietud, planteada por Campbell Brown, exjefa de noticias de Meta y actual fundadora de Forum AI, revela una profunda desconexión que ella misma ha observado. Según TechCrunch, en su reporte del 13 de mayo de 2026, Brown subraya que "la conversación está ocurriendo de una forma en Silicon Valley, y de una forma totalmente diferente entre los consumidores".
Esta divergencia de perspectivas no es menor. Mientras el epicentro de la innovación tecnológica se enfoca en métricas de rendimiento, velocidad y escalabilidad de los Grandes Modelos de Lenguaje (LLM), el usuario final y la sociedad en general se preocupan cada vez más por la calidad, fiabilidad y sesgo de la información que estas herramientas entregan. Brown, cuya experiencia en Meta le dio una visión de primera mano sobre los desafíos de la desinformación en redes sociales, advierte sobre el peligro de repetir los mismos errores, donde la búsqueda de 'engagement' (interacción) primó sobre la precisión y la veracidad. Su nueva iniciativa, Forum AI, busca precisamente subsanar esta brecha, evaluando la exactitud y el sesgo de los LLM en temas complejos, utilizando criterios humanos y expertos para entrenar a lo que ella denomina "jueces de IA", según un artículo de Zamin.uz del 14 de mayo de 2026. Además, su reciente vinculación con TollBit, una startup que genera un mercado entre empresas de IA y medios, como reportó Axios, refuerza su compromiso con una integración responsable entre el periodismo y la inteligencia artificial.
La Prioridad del Engagement vs. la Verdad y Precisión
El contraste fundamental que Campbell Brown destaca se puede polarizar entre dos enfoques dominantes en el desarrollo y la implementación de la IA. Por un lado, tenemos el paradigma de Silicon Valley, a menudo centrado en el engagement y la optimización técnica. Este modelo prioriza la velocidad de despliegue, la capacidad de los modelos para generar respuestas coherentes y atractivas, y la maximización de la interacción del usuario. La historia de las redes sociales es un claro precedente, donde algoritmos diseñados para retener la atención del usuario sin la suficiente ponderación de la veracidad del contenido llevaron a la propagación de noticias falsas y burbujas de filtro. En el contexto de la IA, esto se traduce en LLM que pueden ser optimizados para producir texto "plausible" o "convincente", incluso si es factualmente incorrecto o sesgado, siempre y cuando mantenga al usuario interactuando. Los criterios de éxito se miden en eficiencia computacional, capacidad de respuesta y, en última instancia, el tiempo que el usuario permanece en la plataforma o interactuando con la IA.
Por otro lado, se alza la perspectiva de la Verdad, la Precisión y la Ética, impulsada por figuras como Campbell Brown y encarnada en iniciativas como Forum AI. Este enfoque aboga por una IA que priorice la fiabilidad de la información, la mitigación de sesgos y la contextualización adecuada de las respuestas. Brown, tal como explicó en un video de The Information en octubre de 2025, enfatiza que los LLM deben ir más allá de la optimización del engagement para asegurar la veracidad del contenido, especialmente en áreas sensibles como la geopolítica, la salud mental o la ciencia. Forum AI trabaja con expertos para desarrollar criterios humanos que permitan "jueces de IA" evaluar y corregir las respuestas de los modelos, garantizando que la información no solo sea coherente, sino también precisa, imparcial y contextualizada. Aquí, el éxito no se mide solo en la interacción, sino en la confianza, la utilidad social y la reducción de riesgos para los usuarios. Este modelo busca activamente que el sector corporativo y los desarrolladores impulsen una demanda de información imparcial y rigurosamente evaluada, integrando valores periodísticos de verificación y responsabilidad en el corazón del desarrollo de la IA.