Con la creciente incursión de la inteligencia artificial generativa en el mundo de la información, la línea entre la industria tecnológica y los medios de comunicación se está desdibujando. Lo que antes era una relación de distribución y agregación, ahora se convierte en una dinámica más compleja: las empresas tecnológicas ya no solo recopilan noticias, sino que comienzan a crearlas, lo que trae consigo un conjunto de desafíos éticos, legales y económicos.
Un panorama en transformación
Tradicionalmente, las empresas tecnológicas han actuado como intermediarias en la distribución de contenido. Google y Meta, por ejemplo, han dominado este espacio mediante algoritmos que organizan enlaces y fomentan el consumo de noticias a cambio de datos de usuario y publicidad. Sin embargo, con la incorporación de herramientas de IA generativa como los resúmenes de búsqueda de Google (AI Overview) y el «ChatGPT search», este modelo cambia radicalmente.
Estas herramientas no se limitan a organizar enlaces; generan resúmenes y respuestas que combinan y reinterpretan información de múltiples fuentes, a menudo sin atribución clara ni precisión.
Este cambio coloca a las empresas tecnológicas en un rol editorial, con responsabilidades que hasta ahora recaían exclusivamente en los medios tradicionales.
Los retos de la generación de noticias mediante IA
Las herramientas de IA actuales están lejos de cumplir con los estándares básicos del periodismo. Casos como los resúmenes médicos erróneos de Google AI o las acusaciones falsas realizadas por Copilot de Microsoft destacan la fragilidad de estos sistemas. Estos errores no solo afectan la credibilidad de las empresas tecnológicas, sino que también exponen a individuos y organizaciones a daños reputacionales y legales.
Muchos sistemas de IA han sido criticados por utilizar contenido periodístico sin atribución adecuada, reinterpretándolo de manera que evita técnicamente el plagio directo. Esto ha llevado a demandas, como la de Forbes contra Perplexity por robo de derechos de autor. Las herramientas de IA a menudo no citan correctamente las fuentes de información ni explican de dónde provienen los datos. Esto genera desconfianza tanto en los usuarios como en las instituciones mediáticas. Generar contenido, incluso en forma de resúmenes, implica tomar decisiones editoriales. Estas decisiones, cuando son incorrectas, pueden reforzar prejuicios, difundir información falsa o tergiversar eventos históricos.
Cómo deberían actuar las empresas tecnológicas
Si las compañías de IA desean posicionarse como actores responsables en el ecosistema informativo, deben asumir los estándares periodísticos y editoriales. Esto incluye invertir en sistemas que prioricen la verificación de datos y la atribución adecuada, implementar auditorías regulares para identificar y corregir errores, establecer acuerdos claros y justos con los editores para utilizar su contenido de manera ética, adoptar códigos de ética similares a los que guían el periodismo humano y apoyar el desarrollo de marcos legales que garanticen que la generación de contenido por IA se haga de manera justa y responsable.
El avance de la IA generativa también redefine la relación entre la tecnología y los medios, con cambios económicos que podrían intensificar las tensiones entre ambas industrias.
Conclusión: un rol más allá de la distribución
Las empresas tecnológicas han dejado de ser meros operadores de la «autopista de la información». Ahora, como creadores activos de contenido, deben enfrentar responsabilidades similares a las de los medios tradicionales. El reto no es solo tecnológico, sino ético y estructural. La manera en que aborden estas responsabilidades definirá el futuro de la información en la era de la inteligencia artificial.