OpenAI ha presentado la última versión de la tecnología que sustenta su chatbot de IA ChatGPT, informa (https://www.bbc.com/news/articles/cv2xx1xe2evo) la BBC. Se llama GPT-4o y se implementará para todos los usuarios de ChatGPT, incluidos los no suscriptores. Es más rápido que los modelos anteriores y ha sido programado para sonar hablador y, a veces, incluso coqueto en sus respuestas a las indicaciones. La nueva versión puede leer y discutir imágenes, traducir idiomas e identificar emociones a partir de expresiones visuales. También hay memoria para que pueda recordar indicaciones anteriores. Se puede interrumpir y tiene un ritmo conversacional más fácil: no hubo demora entre hacerle una pregunta y recibir una respuesta. Durante una demostración en vivo utilizando la versión de voz de GPT-4o, brindó sugerencias útiles sobre cómo resolver una ecuación simple escrita en una hoja de papel, en lugar de simplemente resolverla. Analizó algunos códigos informáticos, los tradujo entre italiano e inglés e interpretó las emociones en un selfie de un hombre sonriente. Usando una cálida voz femenina estadounidense, saludó a sus apuntadores preguntándoles cómo estaban. Cuando le hicieron un cumplido, respondió: “¡Basta, me estás haciendo sonrojar!”. Pero no fue perfecto. En un momento, confundió al hombre sonriente con una superficie de madera y comenzó a resolver una ecuación que aún no se le había mostrado.