Hace aproximadamente un mes, Will Knight, editor principal de Inteligencia Artificial en el MIT Technology Review, escribió un polémico y contundente artículo llamado “The Dark Secret at the Heart of AI”.
Hace aproximadamente un mes, Will Knight, editor principal de Inteligencia Artificial en el MIT Technology Review, escribió un polémico y contundente artículo llamado “The Dark Secret at the Heart of AI” (El secreto oscuro en el corazón de la Inteligencia Artificial). Su artículo narra cómo un vehículo experimental, desarrollado por los investigadores de Nvidia, no siguió una sola instrucción proporcionada por su ingeniero. En su lugar, tomó decisiones únicamente basándose en un algoritmo que anteriormente le había enseñado a conducir observando cómo lo hacía un humano. ¿Hasta qué grado es conveniente confiar en el discernimiento de una tecnología que puede operar de manera autónoma sin la intervención humana?
El aprendizaje profundo, conocido como deep learning, es la tecnología utilizada no sólo en vehículos autónomos, sino en diversas áreas, como el reconocimiento de voz e imágenes y traducción de idiomas. El problema reside en que los ingenieros de esta tecnología (cuya utilidad está siendo contemplada en múltiples industrias, como la financiera, médica e incluso bélica) no se explican realmente cómo funciona, debido a que ello significaría el interpretar y comprender el comportamiento de miles de neuronas simuladas e interconectadas en cientos de capas, cosa que no hemos logrado ni con el cerebro humano. La manera en que funcionó el aprendizaje profundo en este vehículo autónomo es la siguiente: la información proveniente de los sensores del auto va a una red de neuronas artificiales (cerebro de la máquina) que procesan los datos y realizan los comandos que lo permiten operar. Sin embargo, el detalle está en que la manera en que funcionan los algoritmos (fórmulas o secuencia de instrucciones) en el aprendizaje profundo no es lineal y es automático, es decir, la computadora tiene la capacidad tanto de aprender sin ser programado explícitamente, como de cambiar a partir de nueva información.
Knight no es el primero que expone el riesgo de estas tecnologías. Elon Musk, cofundador de Tesla Motors y SpaceX, ha expresado abiertamente el peligro inminente que significaría que la Inteligencia Artificial (I.A.) nos sobrepasara en inteligencia, hípercompetitividad y utilidad. Incluso el giro de sus empresas está inspirado en este discurso apocalíptico. Stephen Hawkings también ha alertado del riesgo que corre la humanidad con el desarrollo de estas “superinteligencias”, firmando una carta junto con más de 1000 científicos alertando del peligro de desarrollar armas autónomas programadas con I.A. Al final, es inevitable que la tecnología revolucione todas las áreas de nuestra vida, y si algo nos enseña la industria automotriz, es la rapidez con la que esta tendencia crece. Sin embargo, es indispensable encontrar vías de colaboración entre humano e inteligencia artificial, donde el funcionamiento de esta última pueda darnos más certidumbres que sospechas.