OpenAI presentó su nuevo modelo de chatbot, GPT-4 Turbo. Google anunció la integración de IA generativa a su buscador en inglés, español y portugués disponible en varios países de América Latina. Y Elon Musk entró a la contienda con su chatbot Grok, que será integrado a X (antes Twitter).
Todo ha sido anunciado a inicios de noviembre y luego de un año cargado de nuevas apuestas por parte de las firmas estadounidenses.
Musk asegura que su modelo de IA, que aún está en una versión de prueba para algunos usuarios, será más asertivo e incluso desenfadado, pues es capaz de hacer bromas, algo en lo que no se destacan los otros modelos.
Pero uno de los mayores avances presentados este mes fueron los llamados “tokens” de GPT-4 Turbo, que son las unidades de información (palabras, signos y unidades de datos): su nueva versión eleva exponencialmente la capacidad de información que puede procesar.
GPT-4 Turbo y sus 128k
En su conferencia para desarrolladores del pasado 6 de noviembre, el director de OpenAI, Sam Altman, presentó el nuevo GPT-Turbo con los 128.000 tokens de procesamiento.
Los tokens son unidades mínimas de procesamiento en los modelos de IA. Por ejemplo, la oración “Hola, ¿cómo estás?” tiene seis tokens: “Hola”, “,”, “¿”, “cómo”, “estás”, y “?”.
Tener una capacidad de 128.000 tokens implica que el chatbot o sus herramientas integradas a su modelo pueden recibir una instrucción con el texto equivalente de 300 páginas. Eso es exponencialmente superior a los 4.000-16.000 tokens que tienen las versiones anteriores, como el GPT-3.5 de uso gratuito.
En tareas simples, como pedirle al chatbot un resumen de un documento, el usuario puede darle a “leer” al chatbot mucho más texto que antes. Pero las nuevas capacidades tienen un especial impacto en empresas que ya están usando IA y que requieren procesar gran cantidad de información en una sola instrucción.
La empresa también está implementando la capacidad de crear “agentes” personalizados, llamados “GPT”, capaces de manejar tareas específicas como asesoramiento en negociaciones comerciales, sugerencias para quitar manchas de la ropa, ayuda con la tarea y soporte técnico.
Los usuarios pueden crear su propio “robot” para tareas muy diversas sin necesidad de saber programar.
Los últimos movimientos de OpenAI deberían facilitar la creación de interfaces de IA para que las aplicaciones o sitios web “conversen” con los usuarios, dijo el analista principal de Insider Intelligence, Yory Wurmser, a la agencia AFP.
Búsqueda generativa con Google
Los usuarios de Google en Argentina, Brasil, Chile, Colombia, México, Perú y Uruguay son los primeros en América Latina que pueden ver, desde hace unos días, un nuevo menú al usar el buscador.
Se trata de información basada en Experiencia Generativa de Búsqueda (del inglés Search Generative Experience, SGE): “Ahora al hacer una consulta en el Buscador, verán un extracto generado por IA con información clave a considerar y con enlaces para profundizar más”, indicó Google en un comunicado.
Así, por ejemplo, en una consulta sobre quiénes son los principales representantes del cubismo, esta herramienta hace una lista de los principales pintores de esta corriente, un resumen de qué es el cubismo, imágenes de algunas obras y sugerencias de preguntas relacionadas.
La herramienta de búsqueda con IA también permite iniciar una conversación con el chatbot, como cuáles son las principales obras de Pablo Picasso, uno de los máximos exponentes del cubismo.
“Con los nuevos avances en IA generativa, nuevamente estamos reimaginando lo que puede hacer un motor de búsqueda”, destacó David Gasca, un directivo de Search Labs del buscador de Google, en la presentación de las búsquedas con SGE.
Con estas opciones, Google busca posicionarse frente a otros buscadores que ya incluyen IA, como Bing de Microsoft que se basa en el modelo GPT de OpenAI.
El sarcástico Grok
Elon Musk, el jefe de X (anteriormente Twitter), también lanzó hace unos días un chatbot llamado Grok, pero hasta ahora solo está disponible para usuarios seleccionados.
“En algunos aspectos importantes, es lo mejor que existe actualmente”, aseguró Musk al indicar que a Grok “le encanta el sarcasmo” y respondía las preguntas con “un poco de humor”.
El empresario aseguró también que da respuestas a “preguntas escabrosas que son rechazadas por la mayoría de los demás sistemas de inteligencia artificial”.
En una demostración, se le pidió a Grok una guía paso a paso para producir cocaína. Enumeró información satírica en lugar de útil, combinada con sugerencias sarcásticas, antes de hacer una advertencia contra seguir adelante con la idea.
“Espero no te vueles a ti mismo” al cocinar la droga, “o que no seas arrestado”, bromeó.
Sin embargo, los primeros signos sugieren que sufre problemas comunes en otras herramientas de IA.
Al ser preguntado sobre el juicio al gurú de las criptomonedas encarcelado Sam Bankman-Fried, le dijo al “querido humano” que preguntó que tenía “noticias jugosas” al respecto y dijo erróneamente que el jurado tardó ocho horas en emitir un veredicto de culpabilidad, cuando en realidad lo devolvió en menos de cinco.
Las herramientas de IA generativa como Grok han sido criticadas por incluir errores básicos en sus respuestas redactadas de una manera que las hace parecer muy acertadas.
La herramienta se encuentra actualmente en un formato de prueba, pero luego estará disponible para los suscriptores que pagan por el uso de X, pero también como una aplicación independiente.
¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!
Iche: El renacimiento gastronómico de Manabí
IX Congreso de la Red de Ciencias Políticas y RRII Estado vs Crimen transnacional: sociedad, poder y economía
Conexión vital: Productores y consumidores contra la desnutrición
Las Decisiones Eléctricas deben ser TÉCNICAS y no POLÍTICAS
¡La naturaleza bajo amenaza!: Especies silvestres disminuyen a pasos acelerados