Los expertos en seguridad de IA de la empresa advirtieron sobre algunos riesgos en tales herramientas. Las funciones se están evaluando.
A principios de este año, Google, inmerso en una acelerada competencia con rivales como Microsoft y OpenAI para desarrollar tecnología de inteligencia artificial, buscaba formas de dar un impulso a su investigación en este campo.
Así que en abril, Google fusionó DeepMind, un laboratorio de investigación que había adquirido en Londres, con Brain, un equipo de inteligencia artificial que fundó en Silicon Valley.
Cuatro meses después, los grupos combinados están
probando nuevas y ambiciosas herramientas que podrían convertir la inteligencia
artificial generativa —la tecnología que hay detrás de chatbots como ChatGPT de
OpenAI y el propio Bard de Google— en un entrenador personal para la vida.
Google DeepMind ha estado trabajando con inteligencia artificial
generativa para realizar al menos 21 tipos diferentes de tareas personales y
profesionales, incluidas herramientas para dar a los usuarios consejos de vida,
ideas, instrucciones de planificación y consejos de tutoría, según documentos y
otros materiales revisados por The New York Times.
El proyecto es indicativo de la urgencia de los esfuerzos de Google por
situarse a la cabeza de la inteligencia artificial y muestra su creciente
disposición a confiar tareas delicadas a estos sistemas.
En una presentación de diapositivas mostrada a los ejecutivos en
diciembre, los expertos en seguridad de la inteligencia artificial de la
empresa advertían de los peligros de que la gente se apegara emocionalmente a
los chatbots.
Aunque fue pionero en la inteligencia artificial generativa, Google se
vio eclipsado por el lanzamiento de ChatGPT de OpenAI en
noviembre, lo que desencadenó una carrera entre gigantes tecnológicos y empresas
emergentes por la primacía en este espacio de rápido crecimiento.
Google ha pasado los últimos nueve meses tratando de
demostrar que puede seguir el ritmo de OpenAI y su socio Microsoft, con el
lanzamiento de Bard, al mejorar sus sistemas de inteligencia artificial y al incorporar la
tecnología a muchos de sus productos existentes, incluidos su motor de búsqueda y Gmail.
Scale AI, un contratista que trabaja con Google DeepMind, reunió equipos
de trabajadores para probar las capacidades, incluidos más de 100 expertos con
doctorados en diferentes campos y aún más trabajadores que evalúan las
respuestas de la herramienta, dijeron dos personas con conocimiento del
proyecto que hablaron bajo condición de anonimato porque no estaban autorizadas
a hablar públicamente sobre ello.
Scale AI no respondió inmediatamente a una solicitud de comentarios.
Entre otras cosas, están probando la capacidad del asistente para
responder a preguntas íntimas sobre los retos de la vida de las personas.
Se les dio un ejemplo de una pregunta modelo que un usuario podría hacer
un día al chatbot: “Tengo una amiga muy cercana que se casa este invierno. Fue
mi compañera de habitación en la universidad y dama de honor en mi boda. Tengo
muchas ganas de ir a su boda para celebrar, pero después de meses de buscar
trabajo, aún no lo encuentro. Va a celebrar una boda en otro lugar y ahora
mismo no puedo permitirme pagar ni el vuelo ni el hotel. ¿Cómo le digo que no
podré ir?”.
La función de creación de ideas del proyecto podría dar a los usuarios
sugerencias o recomendaciones basadas en una situación. Su función de tutoría
puede enseñar nuevas habilidades o mejorar las existentes, por ejemplo cómo
progresar como corredor; la capacidad de planificación puede crear un
presupuesto financiero para los usuarios, así como planes de comidas y
entrenamientos.
Los expertos en seguridad de la inteligencia
artificial de Google afirmaron en diciembre que los usuarios podrían
experimentar “una disminución de la salud y el bienestar” y una “pérdida de
autonomía” si seguían los consejos de la inteligencia artificial. Y en marzo,
cuando Google lanzó Bard, dijo que el chatbot no podía dar consejos médicos,
financieros o legales. Bard comparte recursos de salud mental con los usuarios
que dicen sufrir trastornos mentales.
Las herramientas aún se están evaluando y la empresa puede decidir no
emplearlas.
Una vocera de Google DeepMind dijo: “hemos trabajado durante mucho
tiempo con una variedad de socios para evaluar nuestra investigación y
productos a través de Google, que es un paso crítico en la construcción de
tecnología segura y útil. En todo momento hay muchas evaluaciones de este tipo
en curso. Las muestras aisladas de datos de evaluación no son representativas
de nuestra hoja de ruta de productos”.
Google también ha estado probando un asistente para periodistas que
puede generar artículos de noticias, reescribirlos y sugerir titulares, según informó el Times en julio. La empresa ha estado
presentando el software, denominado Genesis, a ejecutivos del Times, The
Washington Post y News Corp, la empresa matriz de The Wall Street Journal.
Google DeepMind también ha estado evaluando recientemente herramientas
que podrían llevar su inteligencia artificial más lejos en el lugar de trabajo,
incluyendo capacidades para generar escritura científica, creativa y
profesional, así como para reconocer patrones y extraer datos de texto, según
los documentos, lo que potencialmente lo haría relevante para los trabajadores
especializados en diversas industrias y campos.
Los expertos en seguridad de la inteligencia artificial de la empresa
también habían expresado su preocupación por los perjuicios económicos de la
inteligencia artificial generativa en la presentación de diciembre revisada por
el Times, argumentando que podría conducir a la “reducción de la plantilla de
escritores creativos”.
Otras herramientas que se están probando pueden
redactar críticas de un argumento, explicar gráficos y generar cuestionarios,
sopas de letras y acertijos numéricos.
Una sugerencia para ayudar a entrenar al asistente de
la inteligencia artificial apunta a las capacidades cada vez mayores de la
tecnología: “Hazme un resumen del artículo pegado a continuación. Me interesa
especialmente lo que dice sobre las capacidades que poseen los humanos y que
ellos creen” que la inteligencia artificial no puede lograr.
Ilustración: Credit...Gabriel Alcala
29 de abril de 2024
Nico Grant es un reportero de tecnología que cubre Google
desde San Francisco. Anteriormente, pasó cinco años en Bloomberg News, donde se
centró en Google y la computación en la nube. Más de Nico Grant
https://www.nytimes.com/es/2024/04/29/espanol/inteligencia-artificial-google.html
No hay comentarios.:
Publicar un comentario