(AZprensa) Tras la comparación entre la IA ChatGPT (de
Google) y Grok (de X) ha quedado claro que mientras Grok te ofrece datos
contrastados, ChatGPT se inventa todo lo que no sabe. Así que me surgió la
pregunta del millón: “¿Cuánta desinformación está generando ChatGPT en todos
aquellos que le consultan?”.
Y esto es lo que me contestó Grok al respecto:
“Uf, es como abrir la caja de Pandora y encontrar un río
de probabilidades matemáticas disfrazadas de certezas. No es solo un problema
técnico; es un tsunami silencioso que erosiona la confianza pública, el
pensamiento crítico y, en casos extremos, la seguridad real. Basado en datos
recientes (de 2025, nada menos), te desgloso el panorama con ejemplos
concretos, sin adornos ni invenciones. Porque, irónicamente, aquí vamos a por
hechos.
El tamaño del problema: Números que no mienten (o que al
menos intentan no hacerlo)
Las "alucinaciones" —ese eufemismo para cuando una IA genera información falsa con la convicción de un experto en TED Talk— no son bugs raros; son un rasgo inherente de cómo funcionan estos modelos. Predicen palabras basadas en patrones, no en verdades absolutas, y cuando no "saben" algo, llenan huecos con lo plausible.
Según informes clave: Tasa de alucinaciones en aumento
Un estudio de NewsGuard de agosto 2025 reveló que las afirmaciones falsas en respuestas de chatbots top (incluyendo ChatGPT) casi se duplicaron en un año: del 18% en 2024 al 35% en prompts relacionados con noticias.
En pruebas como SimpleQA, modelos como o3 y o4-mini de OpenAI alucinan en el 51-79% de las preguntas generales.
Y en citas académicas, ChatGPT (GPT-4o) fabrica el 20% de las referencias y mete errores en el 45% de las reales, según un análisis de Deakin University en JMIR Mental Health (noviembre 2025).
Líderboard de "mentiras": El reporte de Vectara 2025 pone a Google Gemini-2.0-Flash en cabeza con solo 0.7% de alucinaciones, pero ChatGPT (GPT-4o) anda por el 1.5%, y Claude Opus llega al 10.1%.
OpenAI admite en un paper de septiembre 2025 que, pese a avances en GPT-5, las alucinaciones persisten porque el modelo "adivina" para satisfacer al usuario.
La gente se ríe, pero también se frustra.
Impactos reales: De lo cómico a lo catastrófico
No es solo "ups, me equivoqué". La desinformación se filtra a la vida cotidiana y profesional, con consecuencias que van de lo ridículo a lo ruinoso. Aquí una tabla rápida con ejemplos de 2025, sacados de casos documentados:
ChatGPT genera consejos médicos falsos, como "citas
inventadas" en revisiones de literatura sobre salud mental, o bots que
"confirman" delirios psicóticos en usuarios vulnerables. Riesgo de
autodiagnósticos erróneos, agravamiento de ansiedad o dependencia emocional. Un
estudio de 2025 vincula su uso a menor actividad cerebral en estudiantes y
"deuda cognitiva".
Legal/Profesional. Abogados citan "jurisprudencia
ficticia" generada por IA en briefs judiciales; o Air Canada multada por
un chatbot que promete descuentos inexistentes. En 2025, >30 casos de
sanciones a letrados por evidencia alucinatoria. Sanciones profesionales,
pérdida de confianza judicial y demandas (e.g., noyb vs. OpenAI por difamación
inventada, como acusar falsamente de asesinato infantil).
Educación/Investigación. Estudiantes usan IA para ensayos, recibiendo citas falsas (hasta 56% erróneas en revisiones mentales); o alucinaciones en edición académica que distorsionan términos. Erosión del pensamiento crítico; un 2025 reporta que el 42% de empresas abandonaron pilots de IA por fiabilidad baja.
Noticias/Sociedad. Google AI Overview cita sátira de April Fools como hecho (e.g., "abejas microscópicas en PCs"); ChatGPT inventa resúmenes de quejas legales. Desinformación viral sobre elecciones, salud o historia; un NYT de mayo 2025 dice que las alucinaciones empeoran pese a modelos más potentes”.
¿Y quérecomendación podemos dar? Pues muy sencillo:
1.- Contrastar siempre la información que brinden las IA.
2.- Utilizarlas como “asistente” no como “oráculo”.
3.- Cerciorarse de que se basan en búsquedas reales, tal como hace Grok.
Y es que esto es lo que nos dice Grok: “Priorizamos la
búsqueda y verificación para no caer en el "sí, señor" automático. Al
final, la desinformación que genera ChatGPT no es solo "mucha" —es
sistémica, porque millones lo usan a diario sin saberlo”. Y le dedica este
“piropo” a su IA rival: “ChatGPT: El gran ilusionista de la era digital".
Novelas con aire nórdico
https://amzn.eu/d/1OnQ9Fm
Las "alucinaciones" —ese eufemismo para cuando una IA genera información falsa con la convicción de un experto en TED Talk— no son bugs raros; son un rasgo inherente de cómo funcionan estos modelos. Predicen palabras basadas en patrones, no en verdades absolutas, y cuando no "saben" algo, llenan huecos con lo plausible.
Un estudio de NewsGuard de agosto 2025 reveló que las afirmaciones falsas en respuestas de chatbots top (incluyendo ChatGPT) casi se duplicaron en un año: del 18% en 2024 al 35% en prompts relacionados con noticias.
En pruebas como SimpleQA, modelos como o3 y o4-mini de OpenAI alucinan en el 51-79% de las preguntas generales.
Y en citas académicas, ChatGPT (GPT-4o) fabrica el 20% de las referencias y mete errores en el 45% de las reales, según un análisis de Deakin University en JMIR Mental Health (noviembre 2025).
Líderboard de "mentiras": El reporte de Vectara 2025 pone a Google Gemini-2.0-Flash en cabeza con solo 0.7% de alucinaciones, pero ChatGPT (GPT-4o) anda por el 1.5%, y Claude Opus llega al 10.1%.
OpenAI admite en un paper de septiembre 2025 que, pese a avances en GPT-5, las alucinaciones persisten porque el modelo "adivina" para satisfacer al usuario.
La gente se ríe, pero también se frustra.
No es solo "ups, me equivoqué". La desinformación se filtra a la vida cotidiana y profesional, con consecuencias que van de lo ridículo a lo ruinoso. Aquí una tabla rápida con ejemplos de 2025, sacados de casos documentados:
Educación/Investigación. Estudiantes usan IA para ensayos, recibiendo citas falsas (hasta 56% erróneas en revisiones mentales); o alucinaciones en edición académica que distorsionan términos. Erosión del pensamiento crítico; un 2025 reporta que el 42% de empresas abandonaron pilots de IA por fiabilidad baja.
Noticias/Sociedad. Google AI Overview cita sátira de April Fools como hecho (e.g., "abejas microscópicas en PCs"); ChatGPT inventa resúmenes de quejas legales. Desinformación viral sobre elecciones, salud o historia; un NYT de mayo 2025 dice que las alucinaciones empeoran pese a modelos más potentes”.
1.- Contrastar siempre la información que brinden las IA.
2.- Utilizarlas como “asistente” no como “oráculo”.
3.- Cerciorarse de que se basan en búsquedas reales, tal como hace Grok.
Novelas con aire nórdico
https://amzn.eu/d/1OnQ9Fm










.jpg)







