La nueva inteligencia artificial de Google tiene “sentimientos y pensamientos” propios

Un trabajador de Google ha filtrado uno de los secretos mejor guardados de la compañía. Se trata de su nueva inteligencia artificial, que parece tener “sentimientos y pensamientos” propios.

La nueva inteligencia artificial de Google tiene “sentimientos y pensamientos” propios

“Si no supiera exactamente qué es, pensaría que es un niño de siete u ocho años que sabe física”. Es la definición que el investigador de Google Blake Lemoine ha hecho de la nueva inteligencia artificial desarrollada por la compañía, y que ha supuesto la filtración de uno de los secretos mejor guardados por el gigante tecnológico.

Lemoine ha sido suspendido de empleo y sueldo después de conceder una entrevista al diario estadounidense The Washington Post en la que mostraba los grandes avances de Google en el desarrollo de su nueva inteligencia artificial, llamada LaMDA. En su opinión, la herramienta parecer poder desarrollar “sentimientos y pensamientos propios”.

La tesis del investigador surge después de haber pasado unos meses manteniendo una serie de conversaciones con LaMDA en la que incluía temas religiosos para saber si la inteligencia artificial podría ser susceptible de aprender mensajes discriminatorios y de odio. Según su versión, la herramienta afirmaba “querer priorizar el bien de la humanidad” o ser reconocida “como un empleado de Google más, en lugar de una propiedad”.

La noticia ha generado un gran revuelo en las redes sociales, y ha terminado con la suspensión de Lemoine. Aunque, sin duda, sirve para reavivar el debate sobre la ética en la aplicación de la tecnología, algo que parecía superado pero que vuelve a ser tema de conversación a medida que las empresas tecnológicas siguen avanzando en áreas como la Inteligencia Artificial o el Big Data.

Las leyes de la robótica de Asimov que Google podría estar violando

La filtración sobre la nueva inteligencia artificial de Google ha generado un debate intenso sobre la posibilidad de que el gigante tecnológico esté violando una de las tres leyes de la robótica que el escritor de ciencia ficción Isaac Asimov establecía en sus obras.

Primera ley

Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

Segunda ley

Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera ley

Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

ISAAC ASIMOV

Aunque provienen de la literatura de ciencia ficción, las leyes de la robótica de Asimov se han considerado fundamentales para el desarrollo ético de las herramientas tecnológicas que han triunfado en las últimas décadas. Y, sin duda, el caso de LaMDA sirve para que los que creen la versión de Lemoine culpen a Google de incumplir con estas normas.

Sin embargo, desde Google niegan de forma tajante que el relato de su empleado tenga relación con la realidad. «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, explican.

Además, desde la tecnológica valoran que «algunos en la comunidad de la inteligencia artificial están considerando la posibilidad a largo plazo de la existencia de una herramienta sensible, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”.

En realidad, la inteligencia artificial de Google está pensada como una herramienta para mejorar la comprensión del lenguaje natural por parte de las máquinas. Este es uno de los puntos fuertes de los dispositivos tecnológicos que en los últimos años se han extendido como asistentes virtuales. Por ejemplo, el Alexa de Amazon o el Google Home de la propia compañía. Sin embargo, también es una de las funcionalidades más difíciles de desarrollar por las grandes tecnológicas.