"Comé piedras" y "Obama es musulmán": las insólitas respuestas de la IA de Google para hacer búsquedas
La herramienta, diseñada para mejorar la experiencia de búsqueda en la web, utiliza IA generativa para resumir las consultas en la parte superior de la página de resultados.

El jueves, Google anunció que restringía sus nuevos resultados de búsqueda generados por IA después de que la herramienta produjera resúmenes “extraños, imprecisos o poco útiles” que se hicieron virales en las redes sociales. Se trata de la última de una serie de meteduras de pata de alto perfil en materia de IA para el gigante de los motores de búsqueda, luego de que su generador de imágenes por IA produjera resultados históricamente imprecisos a principios de este año.

La directora de búsquedas de Google, Liz Reid, escribió en un artículo de blog que la empresa iba a restringir el uso de su nueva herramienta de búsqueda por inteligencia artificial, AI Overviews, y a poner en marcha medidas de protección adicionales para la tecnología, después de que se pusiera automáticamente a disposición de los usuarios de EE.UU. hace quince días.

La herramienta, diseñada para mejorar la búsqueda, utiliza IA generativa para resumir las consultas de búsqueda en la parte superior de la página de resultados y, aunque Reid dijo que la función era una valiosa adición a la búsqueda de Google, reconoció varios errores de alto perfil que se hicieron virales en las redes sociales. El motor de búsqueda dijo a la gente que comiera piedras, que pusiera pegamento en sus pizzas y que Barack Obama era musulmán, por enumerar algunos que resaltaban áreas de mejora.

Reid dijo que Google había actualizado sus sistemas para limitar el uso de contenidos generados por IA por parte de los usuarios, como las redes sociales y los mensajes de los foros, a la hora de generar respuestas, ya que éstos son más propensos a “ofrecer consejos engañosos”.

Google, con diferencia el motor de búsqueda más popular del mundo, desplegó automáticamente los resúmenes de IA a los usuarios estadounidenses a principios de este mes.

El gigante de las búsquedas también impedirá que la IA muestre resúmenes sobre determinados temas en los que hay más en juego, en particular las consultas relacionadas con la salud, además de limitar los resúmenes para las consultas “sin sentido”, humorísticas y satíricas que parecen diseñadas para obtener respuestas poco serias.

La empresa también “sumó restricciones de activación para las consultas en las que los resúmenes de IA no estaban resultando tan útiles”, dijo Reid, quien añadió que Google “hizo más de una docena de mejoras técnicas” en general.

A pesar de las meteduras de pata virales, Reid defendió la función y dijo que las perspectivas generales de la IA dieron lugar a una “mayor satisfacción” entre los usuarios y a que la gente hiciera “preguntas más largas y complejas con las que saben que ahora Google puede ayudar”.

¿Qué pasó con los resúmenes de IA de Google?

Google, con diferencia el motor de búsqueda más popular del mundo, desplegó automáticamente los resúmenes de IA a los usuarios estadounidenses a principios de este mes. Este, que empuja los enlaces típicos asociados a un resultado de búsqueda más abajo en la página después de una respuesta generada por la IA, fue automático y, como la herramienta no puede desactivarse, despertó cierto rechazo entre los usuarios.

Lo que más preocupaba a Google eran los resúmenes inexactos, extraños y a veces francamente ridículos que empezaron a difundirse en las redes sociales, de forma similar a como se difundieron a principios de este año las imágenes inexactas que producía su herramienta de IA Géminis.

Aunque muchas de las publicaciones que se hicieron virales en las redes sociales eran auténticas, como decir a las personas con cálculos renales que bebieran litros de orina para ayudar a expulsarlos o que comer piedras es bueno para la salud, un buen número no lo eran. Expertos s descartaron una variedad de capturas de pantalla de resúmenes trucados o falsos que se propagan por las redes sociales, como respuestas que dicen que los médicos recomiendan a las personas embarazadas fumar de 2 a 3 cigarrillos al día, sugieren a los usuarios deprimidos que salten del puente Golden Gate y dan instrucciones para autolesionarse, y Reid dijo que Google anima “a cualquiera que encuentre estas capturas de pantalla a que haga una búsqueda por sí mismo para comprobarlo”.

El generador de imágenes por IA de Google produjo resultados históricamente imprecisos a principios de este año.

Muchas de las consultas extrañas son el resultado de un “vacío de datos” o “laguna informativa”, explicó Reid, ya que ocupan zonas en las que hay poca información fiable, lo que significa que pueden colarse contenidos satíricos, como la recomendación de comer rocas.

“A la escala de la web, con miles de millones de consultas diarias, es inevitable que se produzcan algunas rarezas y errores”, afirmó Reid. “Hemos aprendido mucho en los últimos 25 años sobre cómo construir y mantener una experiencia de búsqueda de alta calidad, incluyendo cómo aprender de estos errores para hacer que la búsqueda sea mejor para todos. Seguiremos mejorando cuándo y cómo mostramos los resúmenes de IA y reforzando nuestras protecciones, incluso para los casos límite, y estamos muy agradecidos por los continuos comentarios”, cierra Reid.

 

*Con información de Forbes US.