El artículo titulado "ChatGPT es una tontería", publicado en la revista Ethics and Information Technology, presenta un análisis crítico de los grandes modelos de lenguaje como ChatGPT. Los autores, Michael Townsen Hicks, James Humphries y Joe Slater, argumentan que las inexactitudes que a menudo producen estos modelos no deberían verse como simples errores o alucinaciones. En su lugar, sugieren que estas salidas se describen mejor como "tonterías" en el sentido filosófico definido por Harry Frankfurt.
Según Frankfurt, hablar "tonterías" implica decir cosas que no necesariamente son falsas, sino que carecen de cualquier conexión con la realidad o la verdad, con el único objetivo de impresionar o manipular a los demás. Esta definición destaca la diferencia entre la "tontería" y la simple mentira, ya que mientras la mentira tiene un componente de falsedad consciente, la "tontería" puede ser completamente indiferente a la verdad o la falsedad, centrándose más en la manipulación de las percepciones o emociones de los oyentes.
Los autores del documento postulan que los grandes modelos de lenguaje o LLM, generan textos que parecen veraces, sin preocupación real por la precisión factual, encajan en esta descripción. Según ellos, los LLM son farsantes porque se entrenan con grandes cantidades de datos de texto, y estos datos pueden contener información falsa o engañosa. Como resultado, los LLM pueden generar texto que sea falso o engañoso, incluso si no tienen la intención de hacerlo.
El argumento del documento es significativo porque desafía la percepción común del texto generado por la IA. Al replantear el debate en torno al concepto de "tontería", los autores apuntan a cambiar el enfoque de los aspectos técnicos de los errores de la IA a las implicaciones filosóficas de la comunicación de la IA. Esta perspectiva tiene posibles implicaciones en la forma en que los formuladores de políticas y el público entienden e interactúan con las tecnologías de IA.
El artículo concluye discutiendo las implicaciones de este hallazgo. Los autores sostienen que es importante ser consciente del potencial de los LLM para generar información falsa o engañosa y que es importante desarrollar métodos para detectar y mitigar este riesgo.
Temas relacionados
TecnologíaReferencia: Hicks, M. T., Humphries, J., & Slater, J. (2024). ChatGPT is bullshit. Ethics and Information Technology, 26(2). https://doi.org/10.1007/s10676-024-09775-5