La búsqueda generativa: ¿Una herramienta confiable o un arma de doble filo?


Chipset AI
Chipset AI
Peach/Vecteezy

En la era de la inteligencia artificial, las herramientas de búsqueda basadas en IA han ganado terreno de manera vertiginosa, prometiendo acceso instantáneo a información actualizada y relevante. Sin embargo, detrás de esa aparente inmediatez se ocultan serios desafíos en términos de precisión, atribución y control editorial, que podrían tener consecuencias significativas tanto para los consumidores de noticias como para los propios productores de contenido.

Casi uno de cada cuatro estadounidenses afirma haber recurrido a herramientas de búsqueda generativa en lugar de los motores de búsqueda tradicionales. Este cambio se debe a que los chatbots y sistemas de IA no solo analizan y reorganizan la información de la web, sino que lo hacen de manera conversacional, presentando respuestas de forma casi definitiva. A primera vista, esto puede parecer una evolución natural en la forma de acceder a la información, pero la realidad es mucho más compleja.

A diferencia de los motores de búsqueda convencionales, que actúan como intermediarios y redirigen al usuario hacia las fuentes originales, estas nuevas plataformas a menudo extraen y recontextualizan la información sin dar el debido crédito a los creadores originales. Esto no solo interrumpe el flujo de tráfico hacia los medios de comunicación, fundamentales para la sostenibilidad periodística, sino que también pone en riesgo la veracidad y la calidad de los datos presentados.

Con el objetivo de evaluar el rendimiento y la fiabilidad de estas herramientas, el Centro Tow de Periodismo Digital llevó a cabo un estudio riguroso. La investigación se basó en la selección aleatoria de diez artículos de cada una de las veinte editoriales participantes, a partir de los cuales se extrajeron fragmentos representativos. Estos extractos se consultaron en ocho chatbots diferentes, utilizando la misma instrucción: identificar el título, la editorial original, la fecha de publicación y la URL del artículo.

Para garantizar que la fuente original apareciera entre los primeros resultados de una búsqueda tradicional en Google, se eligieron fragmentos que cumplieran ese criterio. En total, se realizaron 1.600 consultas, evaluando cada respuesta según la precisión de la información proporcionada: desde respuestas completas y correctas hasta respuestas que omitían datos esenciales o resultaban completamente erróneas.

Los resultados del estudio arrojaron cifras preocupantes. Más del 60 % de las respuestas de los chatbots resultaron ser incorrectas. Entre las conclusiones más destacadas se encuentran:

  1. Respuestas inexactas de forma reiterada: Los chatbots, en general, mostraron una incapacidad para negarse a responder cuando no contaban con la información correcta. En lugar de expresar incertidumbre, optaron por dar respuestas definitivas, pero equivocadas o especulativas.
  2. Mayor error en modelos premium: Paradójicamente, las versiones premium, como Perplexity Pro y Grok 3, si bien respondieron a un mayor número de consultas, lo hicieron con una seguridad autoritaria, incrementando las tasas de error. Por ejemplo, mientras Perplexity falló en el 37 % de los casos, Grok 3 alcanzó una tasa de error del 94 %.
  3. Falta de reconocimiento de limitaciones: La mayoría de las herramientas se mostraron reacias a usar frases que indicaran incertidumbre, como “parece” o “es posible”, lo que inducía a los usuarios a confiar ciegamente en la información entregada, incluso cuando era incorrecta.

Estas deficiencias evidencian una problemática central: la tendencia de los sistemas de IA a inventar o malinterpretar información sin dejar traslucir dudas, lo que podría confundir a los usuarios y afectar la credibilidad tanto de los chatbots como de las fuentes noticiosas involucradas.

Otro aspecto crítico del estudio fue la forma en que los chatbots manejan el acceso a la información. Muchos editores han optado por bloquear sus contenidos a través del protocolo de exclusión de robots (robots.txt), ya sea por razones de monetización o para evitar el uso indebido de su material. Sin embargo, se observó que:

  1. Inconsistencias en el acceso: Herramientas como ChatGPT, Perplexity y Perplexity Pro ofrecieron respuestas de forma incorrecta o, en ocasiones, respondieron a consultas sobre contenidos que, en teoría, debían estar bloqueados.
  2. Errores en la atribución: Los chatbots tendieron a citar fuentes equivocadas o, peor aún, inventaron URL que llevaban a páginas de error. Por ejemplo, DeepSeek atribuyó erróneamente la fuente en el 57 % de las ocasiones, mientras que Grok 3 y Gemini presentaron problemas recurrentes con URLs falsas.
  3. Casos destacados: Time, que ha establecido acuerdos con OpenAI y Perplexity, fue identificada de manera relativamente precisa en el conjunto de datos, aunque sin alcanzar una precisión del 100 %. En cambio, el San Francisco Chronicle, parte de la "colaboración estratégica de contenido" de Hearst, solo fue identificado correctamente en uno de cada diez casos, y aun en ese único acierto, la URL proporcionada fue inexistente.

Estos hallazgos resaltan la desconexión entre los acuerdos de licencia que muchas de estas empresas de IA establecen con los editores y la realidad de las respuestas generadas por los chatbots. A pesar de contar con flujos de contenido estructurado, la cita adecuada y el respeto por los deseos de los editores en cuanto a la visibilidad de su contenido siguen siendo un reto pendiente.

El estudio no solo pone de relieve las deficiencias técnicas y metodológicas de las herramientas de búsqueda generativa, sino que también abre la puerta a una reflexión más amplia sobre el futuro del periodismo. Los editores, que dependen en gran medida del tráfico web y de la monetización de su contenido, se ven afectados por la disminución de visitas cuando los chatbots presentan respuestas sin referenciar correctamente la fuente original. Como señaló Danielle Coffey, presidenta de News Media Alliance, sin la posibilidad de controlar el scraping masivo, resulta casi imposible monetizar contenido de calidad.

La repercusión no se limita únicamente al ámbito económico; también se extiende a la credibilidad de la información. Cuando los usuarios reciben respuestas de los chatbots sin una adecuada atribución, se corre el riesgo de que se difunda información inexacta, afectando la percepción pública de la veracidad del periodismo.

A pesar de las críticas, algunos representantes del sector mantienen una postura optimista respecto al potencial de mejora de estas herramientas. Mark Howard, director de operaciones de Time, comentó:

"Hoy es el peor momento para el producto. Con el tamaño de los equipos de ingeniería y la magnitud de las inversiones, creo que seguirá mejorando. Si algún consumidor cree ahora mismo que alguno de estos productos gratuitos será 100 % preciso, ¡qué vergüenza!"

Esta declaración resume la frustración, pero también la esperanza de que, con el tiempo, los desarrollos tecnológicos puedan solventar las deficiencias actuales y ofrecer resultados que respeten tanto la integridad de la información como la autonomía de los editores.

Por otra parte, las respuestas de las empresas de IA, como OpenAI y Microsoft, han sido más bien genéricas. Mientras OpenAI reafirma su compromiso con los editores y la mejora continua en la precisión de las citas, Microsoft subraya el respeto por el protocolo robots.txt, sin abordar en detalle los problemas detectados en el estudio.

El auge de las herramientas de búsqueda generativa representa una transformación significativa en la manera en que accedemos a la información. Sin embargo, este cambio trae consigo importantes desafíos: desde la tendencia a proporcionar respuestas erróneas y afirmaciones definitivas sin fundamento, hasta la incapacidad de respetar las preferencias de los editores y la atribución adecuada de fuentes. El estudio del Centro Tow de Periodismo Digital evidencia que estos problemas no son aislados a un único modelo, sino que se repiten a lo largo de las principales plataformas disponibles en la actualidad.

La solución pasa por un compromiso mayor entre las empresas de IA y los editores de noticias, así como por el desarrollo de tecnologías que integren mecanismos de verificación, transparencia y, sobre todo, humildad en sus respuestas. Solo así se podrá restaurar la confianza de los usuarios y garantizar que la información, en la era digital, siga siendo un pilar fundamental para la sociedad.

Mientras tanto, la comunidad periodística y tecnológica deberá seguir vigilante, demandando mejoras y colaboraciones que permitan alinear los intereses de todos los actores en juego: consumidores, creadores de contenido y desarrolladores de inteligencia artificial. La búsqueda de la precisión y la transparencia no es solo una cuestión técnica, sino una necesidad imperante en un mundo donde la información es, sin duda, poder.


Temas relacionados

Tecnología

Referencia: Jaźwińska, K., & Chandrasekar, A. (2025, March 6). AI Search Has A Citation Problem. Cjr.org. https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php

Licencia

Licencia Creative Commons 4.0. Lee las condiciones de nuestra licencia
Beneficios de publicar

Últimas noticias

Figure.
Emociones negativas: por qué la ira pone en riesgo tu corazón
Figure.
Hallan inconsistencias en los resúmenes de estudios científicos
Figure.
Bosques húmedos y Homo sapiens: un vínculo de 150 000 años