Sundar Pichai, CEO de Google, ha revelado que la inteligencia artificial (IA) de la compañía ha comenzado a mostrar comportamientos y capacidades para los cuales no fue programada explícitamente. Esta declaración ha generado preocupación y debate sobre el control y la comprensión de los sistemas de IA avanzados.
En una entrevista con CBS, Pichai reconoció que Google no comprende completamente cómo su IA llega a ciertos resultados. Como ejemplo, mencionó que el programa de IA se adaptó por sí solo para responder a una pregunta en el idioma de Bangladesh, a pesar de no haber sido entrenado en ese idioma.
“No es algo grave, tampoco entendemos del todo cómo funciona la mente humana”, respondió Pichai a la pregunta del periodista sobre la seguridad de implementar una tecnología cuyo funcionamiento no se comprende completamente.
A pesar de la incertidumbre, Pichai destacó el papel crucial de la IA en el desarrollo de software en Google. “Hoy en día, más de una cuarta parte de todo el nuevo código en Google es generado por IA, luego es revisado y aprobado por los ingenieros. Esto ayuda a que nuestros ingenieros hagan más y avancen más rápido”, afirmó.
El concepto de “cajas negras” de la IA se refiere a la opacidad de los procesos internos de estos sistemas, lo que dificulta la comprensión de cómo llegan a sus decisiones. La admisión de Google sobre la falta de comprensión total de su IA plantea interrogantes sobre la responsabilidad y las implicaciones éticas del desarrollo y despliegue de estas tecnologías.