Google presenta la función AI para descripción general de búsqueda en la conferencia I/O 2024

Google presenta la función AI para descripción general de búsqueda en la conferencia I/O 2024

En mayo pasado, el director ejecutivo de Google, Sundar Pichai, dijo que la empresa utilizaría inteligencia artificial para reinventar todos sus productos.

Pero debido a que la nueva tecnología generativa de IA planteaba riesgos, como la difusión de información falsa, Google fue cauteloso al aplicar la tecnología a su motor de búsqueda, que es utilizado por más de dos mil millones de personas y que el año pasado generó ingresos de 175 mil millones de dólares.

El martes, en la conferencia anual de Google en Mountain View, California, Pichai mostró cómo el agresivo trabajo de la compañía en inteligencia artificial finalmente llegó al motor de búsqueda. A partir de esta semana, dijo, los usuarios estadounidenses verán una función, AI Overviews, que genera resúmenes de información además de los resultados de búsqueda tradicionales. Para fin de año, más de mil millones de personas tendrán acceso a la tecnología.

Es probable que las descripciones generales de IA aumenten la preocupación de que los editores web vean menos tráfico de la Búsqueda de Google, lo que ejercerá más presión sobre una industria que se ha tambaleado por divisiones con otras plataformas tecnológicas. En Google, los usuarios verán resúmenes más largos sobre un tema, lo que podría reducir la necesidad de visitar otro sitio web, aunque Google ha restado importancia a estas preocupaciones.

“Los enlaces incluidos en AI Overviews obtienen más clics” de los usuarios que si se presentaran como resultados de búsqueda tradicionales, escribió Liz Reid, vicepresidenta de búsqueda de Google, en una publicación de blog. “Continuaremos enfocándonos en enviar tráfico valioso a editores y creadores”.

La compañía también dio a conocer una serie de otras iniciativas, incluido un modelo liviano de IA, nuevos chips y los llamados agentes que ayudan a los usuarios a realizar tareas, en un intento por ganar ventaja en una pelea de IA con Microsoft y OpenAI, el creador de ChatGPT. . .

“Estamos en los primeros días del cambio de plataforma de IA”, dijo Pichai el martes en la conferencia de desarrolladores I/O de Google. “Queremos que todos se beneficien de lo que Gemini puede hacer”, incluidos los desarrolladores, las nuevas empresas y el público en general.

Cuando se lanzó ChatGPT a finales de 2022, algunos expertos de la industria tecnológica lo consideraron una seria amenaza para el motor de búsqueda de Google, la forma más popular de obtener información en línea. Desde entonces, Google ha trabajado agresivamente para recuperar su liderazgo en inteligencia artificial, lanzando una familia de tecnologías llamada Gemini, que incluye nuevos modelos de inteligencia artificial para desarrolladores y chatbots para consumidores. También ha integrado la tecnología en YouTube, Gmail y Docs, ayudando a los usuarios a crear vídeos, correos electrónicos y borradores con menos esfuerzo.

Mientras tanto, continuó la competencia entre Google y OpenAI y su socio Microsoft. El día antes de la conferencia de Google, OpenAI presentó una nueva versión de ChatGPT que se parece más a un asistente de voz.

(El New York Times demandó a OpenAI y Microsoft en diciembre por infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).

En su evento en Silicon Valley, Google mostró cómo involucraría más profundamente la inteligencia artificial en la vida de los usuarios. Presentó el Proyecto Astra, un experimento para ver cómo la IA podría actuar como un agente, charlando vocalmente con los usuarios y respondiendo a imágenes y vídeos. Algunas de las funciones estarán disponibles para los usuarios del chatbot Gemini de Google a finales de este año, escribió en una publicación de blog Demis Hassabis, director ejecutivo de DeepMind, el laboratorio de inteligencia artificial de Google.

DeepMind también presentó Gemini 1.5 Flash, un modelo de IA diseñado para ser rápido y eficiente pero más liviano que Gemini 1.5 Pro, el modelo de nivel medio que Google ha implementado en muchos de sus servicios al consumidor. El Dr. Hassabis escribió que el nuevo modelo era “altamente capaz” de razonar y era bueno para resumir información, chatear y subtitular imágenes y vídeos.

La compañía anunció otro modelo de IA, Veo, que genera videos de alta definición basados ​​en instrucciones de texto simples, similar al sistema Sora de OpenAI. Google dijo que algunos creadores pueden obtener una vista previa de Veo y que otros pueden unirse a una lista de espera para acceder a él. A finales de este año, la compañía planea llevar algunas de las capacidades de Veo a YouTube Shorts, el competidor de la plataforma de video TikTok, y otros productos.

Google también mostró las últimas versiones de su herramienta de generación de música, Lyria, y del generador de imágenes, Imagen 3. En febrero, el chatbot Gemini de Google fue criticado por los usuarios en las redes sociales por negarse a generar imágenes de personas blancas y por presentar imágenes inexactas de personajes históricos. cifras. cifras. La compañía dijo que suspenderá la capacidad de generar imágenes de personas hasta que solucione el problema.

En los últimos tres meses, más de un millón de usuarios se han registrado en Gemini Advanced, la versión del chatbot de Google disponible mediante una suscripción mensual de 20 dólares, dijo la compañía.

En los próximos meses, Google agregará Gemini Live, que brindará a los usuarios la posibilidad de hablar con el chatbot mediante comandos de voz. El chatbot responderá con voces que suenan naturales, dijo Google, y los usuarios podrán interrumpir a Gemini para hacer preguntas aclaratorias. A finales de este año, los usuarios podrán usar sus cámaras para mostrarle a Gemini Live el mundo físico que los rodea y tener conversaciones al respecto con el chatbot.

Además de las resúmenes de IA, el motor de búsqueda de Google contará con páginas de resultados de búsqueda organizadas por IA, con títulos generados que destacan diferentes tipos de contenido. La función comenzará con resultados de comidas y recetas y luego se ofrecerá para preguntas sobre compras, viajes y entretenimiento.

Reid, jefa de búsqueda, dijo en una entrevista antes de la conferencia que esperaba que las actualizaciones de búsqueda ahorraran tiempo a los usuarios porque Google “puede hacer más trabajo por ustedes”.

Pichai dijo que espera que la gran mayoría de las personas interactúen con la tecnología Gemini AI a través del motor de búsqueda de Google.

“Haremos que la interacción con Gemini sea cada vez más fluida”, dijo Pichai en una sesión informativa antes de la conferencia.