ChatGPT ahora habla como una persona: descubre el nuevo modo de voz avanzado
On 25 de septiembre de 2024 by admin007 StandardEn mayo de 2024, OpenAI presentó su innovador modelo de inteligencia artificial, GPT-4o, una versión multimodal que integra capacidades avanzadas para procesar texto, visión y audio simultáneamente. Tras meses de desarrollo y varios retrasos, la compañía ha lanzado finalmente el modo de voz avanzado (AVM) para ChatGPT, permitiendo interacciones más naturales y fluidas con el chatbot.
Mejoras en la comunicación con ChatGPT
El nuevo modo de voz avanzado transforma la manera en que los usuarios interactúan con ChatGPT. A diferencia de la versión anterior, que funcionaba por turnos (el chatbot hablaba y luego escuchaba), el AVM permite una escucha constante. Esto significa que los usuarios pueden interrumpir, agregar información o ajustar sus solicitudes en tiempo real, emulando una conversación más humana y dinámica.
Además, el AVM ofrece mejoras significativas en velocidad y fluidez, así como optimizaciones para diversos acentos en varios idiomas, haciendo que las interacciones sean más naturales y accesibles para una audiencia global.
Acceso exclusivo para usuarios de pago
Actualmente, el modo de voz avanzado está disponible exclusivamente para los clientes de las versiones de pago de ChatGPT, como los planes Plus y Teams. Pronto también estará accesible para los usuarios de Enterprise y Edu. El despliegue comenzó hace meses en modo alfa para un grupo selecto de usuarios, y se espera que continúe expandiéndose en los próximos días.
Nuevas voces y diseño renovado
El AVM introduce cinco nuevas voces: Arbor, Maple, Sol, Spruce y Vale, cada una con características únicas de entonación y respuesta, adaptándose a las preferencias de los usuarios. Estas voces están diseñadas para ofrecer una experiencia auditiva más personalizada y agradable.
El diseño de la interfaz también ha sido renovado. Ahora, en lugar de los puntos negros o blancos animados que indicaban cuando ChatGPT escuchaba, se ha incorporado una esfera azul animada, mejorando la estética y la claridad visual durante las interacciones de voz.
Limitaciones y futuras actualizaciones
Aunque el AVM representa un avance significativo, aún faltan algunas características mostradas en las demostraciones iniciales. Por ejemplo, la función de compartir pantalla y video en tiempo real, que permitiría a ChatGPT procesar información visual y audible de manera integrada, todavía no está disponible. OpenAI no ha anunciado un cronograma para la implementación de estas funciones adicionales.
Disponibilidad global y restricciones
El modo de voz avanzado está siendo desplegado en varios países, probablemente incluyendo México, ya que las suscripciones Plus, Team y Enterprise están disponibles en el país. Sin embargo, OpenAI ha señalado que el AVM no está disponible en varias regiones, incluyendo la Unión Europea, Reino Unido, Suiza, Islandia, Noruega y Liechtenstein, debido a diversas regulaciones y consideraciones legales.
You may also like
Archivos
Categorías
- Ambiente
- Animales
- Cámara de Diputados
- Cámara de Senadores
- CDMX
- ciberseguridad
- Ciencia
- Ciencia y Tecnología
- Cine
- clima
- Columnas
- Cultura
- Cultural
- Deportes
- Economía
- educacion
- Entretenimiento
- Espectáculos
- Estados
- Estilo
- Estilo de Vida
- Experiencia gourmet
- Hogar
- ine
- Interesante
- Internacional
- Internacionales
- Legislativo
- Nación
- Nacional
- Política
- Principal
- Principales
- Prinipal
- Salud
- Seguridad
- Senado
- Sociedad
- Tecnología
- Tradición
- Transporte
- Turismo
- Uncategorized