A un lado, Siri y Alexa... ChatGPT aprendió a hablar

ChatGPT
Sin comentarios Facebook Twitter Flipboard E-mail

Es, a la vez, el momento que temíamos y el que esperábamos con ansias: OpenAI anunció una actualización de su inmensamente popular chatbot potenciado por IA, ChatGPT, que le permite recibir prompts de viva voz y entregar respuestas en una voz sintetizada.

En pocas palabras, ChatGPT puede ahora interactuar contigo como lo hacen Siri o Alexa.

Entonces, ChatGPT ahora tiene una voz. O, para ser más preciso, tiene cinco voces y tú puedes escoger la que prefieras.

La interacción es fluida en lo que se respecta a la capacidad del chatbot para entender comandos y contestar, pero la inevitable pausa entre pregunta y respuesta hace más por evocar una conversación vía walkie-talkie que una charla telefónica.

Un mundo de imágenes

ChatGPT ahora también responde preguntas sobre imágenes o con imágenes. OpenAI ha estado dando señales de que sus planes se movían en esta dirección, pero solo ahora vemos una versión abierta al público en general.

Esto significa que ahora puedes cargar imágenes en la aplicación y hacerle a ChatGPT preguntas sobre lo que muestran.

Dall-e

Por ejemplo, a partir de una foto de los contenidos en tu refrigerador, ChatGPT puede ofrecerte recetas que se pueden preparar con esos ingredientes. Puedes pedirle adjetivos para describir una escena o, si acabas de terminar una pintura o una escultura, puedes pedirle al chatbot que te sugiere títulos apropiados.

Estas actualizaciones se unen al anuncio de la semana pasada de que DALL-E 3, la última versión del modelo de creación de imágenes de OpenAI, se conectará a ChatGPT para permitirle generar imágenes.

Estas nuevas capacidades estarán disponibles para los suscriptores de ChatGPT Plus, la aplicación premium de la compañía, que queda así convertida en una ventanilla única para lo mejor de los modelos de OpenAI, capaz de correr GPT-4 y DALL-E en una sola app.

Comentarios cerrados
Inicio