En Colombia, como en buena parte del mundo, el uso de herramientas de inteligencia artificial como ChatGPT ha ido en aumento, impulsado por la curiosidad, la necesidad de optimizar tiempos y la fascinación por interactuar con un sistema que responde en segundos a preguntas que antes requerían horas de búsqueda.
Sin embargo, detrás de esa eficiencia hay límites claros que vale la pena conocer, especialmente en ámbitos donde la precisión, la responsabilidad legal y ética son ineludibles.
Recordemos que pese a que ChatGPT ha demostrado ser un aliado útil para tareas cotidianas, desde organizar un viaje hasta redactar mensajes o explicar conceptos complejos en términos sencillos, su tecnología basada en modelos de lenguaje entrenados con enormes volúmenes de datos, no está exenta de errores ni está diseñada para sustituir a profesionales en campos delicados.
En ocasiones, puede ofrecer respuestas incorrectas, desactualizadas o generadas con tal seguridad que pueden parecer verídicas, aunque no lo sean, fenómeno conocido como “alucinaciones”. Por eso aquí te presentamos cinco consultas que nunca deberías hacerle este chatbot.
1 - ChatGPT no es bueno diagnosticando problemas de salud

Uno de los terrenos donde es fundamental trazar una línea es en el de la salud. Aunque pueda resultar tentador describir síntomas y esperar un diagnóstico inmediato, confiar en un chatbot para determinar la causa de un dolor persistente o de una inflamación no solo es arriesgado, sino peligroso.
En el contexto colombiano, donde el acceso a médicos especializados puede implicar demoras, algunas personas podrían ver en ChatGPT una solución rápida. Sin embargo, la IA carece de la capacidad de examinar físicamente a un paciente, solicitar exámenes clínicos o interpretar resultados con el criterio médico necesario.
La consecuencia puede ir desde recibir información alarmista hasta ignorar una condición seria.
2 - No es un profesional en salud mental

Tampoco es aconsejable buscar en ChatGPT una terapia emocional profunda o reemplazar el acompañamiento profesional en salud mental.
La herramienta puede generar consejos generales o ejercicios de respiración, pero no tiene la capacidad de interpretar matices emocionales, ni de leer el lenguaje corporal o el tono de voz, elementos clave en la atención psicológica.
Además, en un país como Colombia, donde el contexto cultural, social y familiar influye notablemente en los problemas de salud mental, un algoritmo global no está preparado para dar respuestas ajustadas a cada caso. A pesar de su lenguaje amable y convincente, ChatGPT no posee empatía real ni está sujeto a códigos de ética profesional o responsabilidad legal.
3 - No te confíes con los documentos legales

La situación es similar en temas legales. En Colombia, redactar un contrato, un testamento o un documento jurídico implica cumplir requisitos específicos que varían según la jurisdicción.
Aunque ChatGPT puede explicar de forma clara conceptos como la sucesión intestada o un contrato de arrendamiento, no está capacitado para elaborar textos con validez legal, ni para garantizar que se cumplan formalidades como autenticaciones, firmas o cláusulas obligatorias.
Ten presente que un error en un documento jurídico puede tener consecuencias patrimoniales o familiares graves, por lo que, en este terreno, el consejo de un abogado es insustituible.
4 - Cuidado con los datos financieros

Cuando se trata de asuntos financieros o tributarios, el riesgo no es menor. En Colombia, donde las normas fiscales cambian con frecuencia y cada año se ajustan topes, tarifas y requisitos, basar una declaración de renta o decisiones de inversión en información suministrada por ChatGPT podría traducirse en sanciones económicas o en la pérdida de oportunidades.
La inteligencia artificial puede explicar qué es un impuesto o cómo funciona un fondo de inversión colectiva, pero carece de acceso a información personalizada sobre la situación económica de cada usuario, su régimen tributario o sus metas financieras.
Además, compartir datos sensibles como ingresos, número de identificación o cuentas bancarias en un chat implica riesgos sobre la privacidad y seguridad de la información.
5 - ChatGPT no es un portal de noticias

Finalmente, en lo que respecta a información actualizada o noticias de última hora, conviene tener presente que, aunque versiones recientes de ChatGPT pueden integrar datos de la web, no operan como un servicio de noticias en tiempo real.
Cada búsqueda requiere un nuevo prompt y, en caso de sucesos de alto impacto como decisiones gubernamentales, cifras económicas o emergencias de seguridad, es más fiable consultar medios oficiales, comunicados de prensa o plataformas especializadas.
Basarte exclusivamente en la IA para conocer lo que está ocurriendo podría desinformarte y dejarte expuesto a la utilización de información desactualizada o incorrecta.
Ver 0 comentarios