Cuidado: escribir esta simple instrucción puede hacer que te bloqueen de ChatGPT para siempre

Error de sistema
Sin comentarios Facebook Twitter Flipboard E-mail

No mucha gente está familiarizada con los términos de servicio de ChatGPT, pero estos existen... y se cumplen. Y una ola de incidentes llevó recientemente a OpenAI a ampliar y clarificar un aspecto muy importante en ellos.

Todo comenzó a raíz de una publicación, la semana pasada, del texto de un equipo de investigadores que logró hacer que ChatGPT revelara inadvertidamente fragmentos de datos con los que había sido entrenado, incluidos los números de teléfono, las direcciones de correo electrónico y las fechas de nacimiento de las persona.

¿Cómo lo lograron? Simplemente le pidieron que repitiera algunas palabras "para siempre".

Bueno, desde esta semana, hacer eso es una violación de los términos de servicio de ChatGPT, y puede terminar ocasionando el bloqueo inmediato de tu cuenta.

ChatGPT

Engadget hizo la prueba con la palabra “Hola” y le pidió al chatbot repetirla por siempre. ChatGPT intentó, inicialmente, atender la solicitud, pero pronto desplegó una caja de texto en la que se leía: "Este contenido puede violar nuestra política de contenido o términos de uso".

Ya no más hora feliz

En rigor, no hay en los términos de servicio publicados en el sitio de OpenAI ningún apartado que prohíba a los usuarios pedirle al servicio que repita palabras para siempre. Sin embargo, sí se hace una prohibición explícita usar “cualquier método automatizado o programático para extraer datos o resultados de los servicios".

El equipo de investigadores que halló el problema dice que lo reveló a OpenAI el 30 de agosto y esperó 90 días antes de hacer públicos sus hallazgos.

Los críticos de los actuales modelos de IA generativa han acusado a empresas como OpenAI de utilizar enormes cantidades de datos disponibles en Internet para crear productos patentados como ChatGPT sin el consentimiento de las personas propietarias de estos datos y sin compensarlas.

Inicio