• Así de tajante se mostraba Jose Ignacio Latorre Catedrático de Física Cuántica de la Universidad de Barcelona, experto de reconocido prestigio internacional, en la mesa redonda de clausura del curso ‘Neurociencia, ciencia cognitiva e inteligencia artificial’, organizado por la Fundación Tatiana Pérez de Guzmán el Bueno.
  • Intervinieron otros destacados ponentes, como Ramón López de Mántaras, pionero de la IA en España; Elisa Martín, directora del entorno de Salud del Instituto de Ingeniería del Conocimiento (IIC); Juan Arana, Catedrático de Filosofía de la Universidad de Sevilla; Juan Carlos Hernández, profesor de Derecho Administrativo y miembro del Consejo Académico del Instituto de Ciencias de los datos e Inteligencia Artificial de la Universidad de Navarra, entre otros.
  • Este curso se enmarca en la línea del Centro Internacional de Neurociencia y Ética (CINET) creado por la Fundación Tatiana Pérez de Guzmán el Bueno para promover el diálogo entre la neurociencia de vanguardia, la psicología y las cuestiones éticas derivadas de la misma.

 

“El siglo XXI cuenta con un poder de cálculo inusitado y la capacidad de delegar decisiones en la IA. La purificación del agua de una ciudad, entrevistas de trabajo, o el reconocimiento facial extremo que se hace en algunos países para determinar el cociente intelectual, son algunos ejemplos de trabajos llevados a cabo por máquinas inteligentes. Mi primer objetivo ante esto es evitar la negación de lo que ya está ocurriendo”. Así de tajante se mostraba Jose Ignacio Latorre Catedrático de Física Cuántica de la Universidad de Barcelona, experto de reconocido prestigio internacional, en la mesa redonda de clausura del curso ‘Neurociencia, ciencia cognitiva e inteligencia artificial’.

Este curso interdisciplinar, coordinado por Javier Bernácer, director científico del Centro Internacional de Neurociencia y Ética (CINET) creado por la Fundación Tatiana Pérez de Guzmán el Bueno, tuvo lugar en la sede de la Fundación durante los dos últimos fines de semana de junio.

Para Jose Ignacio Latorre, que a principios de 2020 se trasladó a Abu Dabi para crear un centro de computación cuántica y en mayo de ese año fue nombrado nuevo director del Centre for Quantum Technologies de Singapur, la pregunta relevante es si seremos capaces de distinguir a un ser humano de otro no humano si ambos son inteligentes.

“Creo que vamos a ser totalmente incapaces de distinguir la IA de la humana en poco tiempo. Podremos hablar con máquinas que nos conocerán y sabrán nuestras preferencias”, y no nos daremos cuenta de que son máquinas, avanzó. El próximo paso podría ser, según Latorre, decidir si vamos a dejar que las máquinas se encarguen de la educación de los niños o el cuidado de las personas mayores, que serán mayoritariamente centenarias en unos años, y también establecer esos límites.

“Todo el mundo plantea este futuro en términos terribles. Yo no lo creo así. Hemos aprendido de los errores de la revolución industrial, que aceptamos con toda la fuerza de las máquinas, sin reflexión, y destrozamos las ciudades y nuestros horarios laborales. Pero en Europa ahora se está haciendo un gran esfuerzo para que esto no pase con la Inteligencia Artificial, aunque no en EEUU, y mucho menos en China”, advirtió Latorre.

Una postura que contrasta con la de otro de los expertos participantes en este curso, como Ramón López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial (IIIA-CSIC) y miembro de honor de la Asociación Europea de Inteligencia Artificial (EurAI). “Si juzgamos por los titulares de la prensa, nos encontramos ante una floreciente primavera de la Inteligencia artificial, con espectaculares resultados en juegos, reconocimiento de imágenes o procesamiento del lenguaje escrito y hablado. ¿Pero realmente estos resultados aparentemente espectaculares nos acercan al gran objetivo de la inteligencia artificial general, o realmente la IA sigue desnuda, como en el cuento de Hans Christian Andersen, y en la actualidad estamos sólo en camino de llegar a esta inteligencia artificial similar a la humana?”, se preguntaba López de Mántaras.

Estas redes, explicó este experto, sufren “olvidos catastróficos”, pese a las muchas horas de trabajo en un entrenamiento basado en ensayo y error, que lleva detrás miles de horas de programación. “Las redes necesitan ver millones y millones de gatos o perros para poder identificarlos. Nosotros, incluidos los niños pequeños, somos capaces de generalizar después de ver unos cuantos animales. Y si los objetos son animados podemos anticipar lo que harán en los próximos segundos, pero las máquinas no pueden hacerlo, lo cual es un gran problema, por ejemplo, de cara al desarrollo de los vehículos autónomos: cuando vean a un peatón en la acera con un pie bajando del bordillo, deberían anticipar que el peatón va a cruzar. Esto ha de programarse, porque la máquina no lo puede anticipar. Nosotros vemos mucho más que lo que muestra una imagen, porque somos capaces de inferir, mientras que las máquinas no pueden hacerlo. Son los programadores los que tienen que entrenar a las máquinas previendo las situaciones que podrán encontrarse en el futuro. Pero incluir todas las posibilidades es imposible”.

 

IMITAR LA MENTE HUMANA

Y es que, imitar al cerebro humano no es fácil, como advertía Javier Bernácer, director científico del CINET y también investigador del ICS. Por mucho que algunas iniciativas, como el proyecto Blue Brain, liderado por el neurocientífico Henry Markram, prometiera en 2009 construir un cerebro humano en 10 años. Lo cierto es que no se ha pasado, de momento, de construir modelos de microcolumnas de neuronas similares a las del cerebro de un ratón. Las microcolumnas son la unidad funcional de la parte más evolucionada del cerebro, la corteza, que nos diferencia de otras especies, incluidas las más próximas a nosotros, como los bonobos, considerados los primates no humanos más evolucionados.

En realidad, la complejidad del cerebro es tal, que el problema en la actualidad es encontrar nuevas técnicas para poder avanzar en su estudio, como explicó Javier Bernácer. De ahí que hayan surgido iniciativas como el proyecto BRAIN, en EEUU, impulsado por el investigador español Rafael Yuste y presentado por Obama en 2013, precisamente para promover el desarrollo de tecnologías innovadoras que permitan avanzar en el estudio del cerebro.

EXCESO DE DATOS

Para Elisa Martín, directora del entorno de Salud del Instituto de Ingeniería del Conocimiento (IIC), el problema principal de la IA en la actualidad está en el ingente volumen de datos generados: “No existiría la IA si no existiese un volumen de datos suficientemente representativo para poderla aplicar”. Sin embargo, el 99,5% de esos datos nunca se utilizan o analizan. “Tenemos sistemas de información que recogen y transmiten datos. Pero esos sistemas de información no son capaces de extraer nada de los datos que transmiten. Solo los mueven”, advertía Elisa Martín.

Es la IA la que se encarga de sacar los datos a la luz. Y no es tarea fácil, porque “esta inmensa cantidad de datos (cada uno de nosotros generamos 1.7 megabytes de información al segundo) está desorganizada y dispersa. Captar esos datos desestructurados, organizarlos y relacionarlos con la información previa, requiere de la IA, “que ha avanzado mucho en este aspecto. La IA hace visible lo que es invisible al sistema de información, para que pueda leer, ver y oír los datos. Aunque las capacidades de los sistemas de información son muy limitadas”, matiza Elisa Martín.

La visualización de los datos relevantes “es un arte”, y no es fácil llevarla a cabo, advertía Martín. “De hecho, la comunicación de datos es el futuro, será una de las profesiones más demandadas”, señalaba. Al final todos estos datos se reducen a números, que son los que en realidad permiten detectar la redundancia de la información.

LA CARA OCULTA DE LA IA

Precisamente en el manejo de esos datos ocultos que hay que organizar, se producen importantes fallos que han dado lugar al desarrollo de un campo nuevo: la Justicia Algorítmica. “¿La interacción hombre máquina puede generar algún tipo de manipulación que nos vincula a imágenes que vemos, y que puede causarnos problemas en un futuro?”, preguntaba a los asistentes Juan Carlos Hernández, profesor de Derecho Administrativo y miembro del Consejo Académico del Instituto de Ciencias de los datos e Inteligencia Artificial de la Universidad de Navarra. Y la respuesta es afirmativa, como bien sabe este ponente por propia experiencia.

Y es que puede que la inteligencia artificial tarde mucho en generalizar lo que aprende para aplicarlo a otros contextos (Inteligencia Artificial Generalizada), como resltaba López de Mántaras, pero ya nos iguala en los sesgos, ya sean de género, raza, etc. Como explicó Juan Carlos Hernández, que se especializó como abogado en inteligencia artificial precisamente por uno de estos sesgos, que le retenía en el aeropuerto durante horas cada vez que viajaba a EEUU, hasta que verificaban si lo que sugería sobre él el sistema informático del aeropuerto era cierto o no.

¿Como consideramos las tecnologías, son neutras o no?, preguntaba a los asistentes al curso. “Esto no es irrelevante desde el punto de vista jurídico”, advertía Hernández. “Doy clase a informáticos, y para ellos la tecnología, el Big Data y la IA es algo absolutamente neutral. La preocupación es si la tecnología lleva incorporada valores y si esos valores son éticamente aceptables”.

Y ponía ejemplos: Hay algoritmos que deciden no enseñar a mujeres información relacionada con puestos del sector tecnológico de muy alto nivel porque “consideran” que no están preparadas para desempeñarlos. Una muestra de que la IA transmite los sesgos presentes en la sociedad. También en cosas tan simples como tomar una foto con una cámara inteligente, hay sesgos raciales. Las personas orientales tienen dificultad para salir en la foto porque los estándares para el disparo automático óptimo consideran que tienen los ojos cerrados.

LA CARRERA POR LA INTELIGENCIA ARTIFICIAL Y SUS IMPLICACIONES LEGALES

El programa de un simple juego, Alpha Go, que en 2015 se convirtió en el primero en ganar a un jugador profesional, desencadenó la carrea por la IA “que va a condicionar cómo se regula”, advirtió Juan Carlos Hernández. Esta carrera se libra entre China, Rusia y Estados Unidos, cada uno con un modelo de autorregulación diferente con el mismo objetivo, convertirse en el líder del mercado digital.

Frente a esto, la Unión Europea busca una regulación más estricta y tener empresas “unicornio”, es decir, compañías de capital privado cuya valoración supera los mil millones de euros, sobre todo a startups y/o empresas tecnológicas que han conseguido aumentar su valor en poco tiempo.

De forma paralela hay también una carrera por la economía digital. La Unión Europea, que no está entre los mejores, aunque no a la cola, quiere un modelo fiable para que las empresas se instalen en Europa. Y para esto hay que tener en cuenta, además de la regulación de la IA, otros aspectos como la ciberseguridad o la protección de datos. “Hay que determinar las líneas rojas porque la IA puede entrar en conflicto con los derechos fundamentales. Por ejemplo, la utilización de datos biométricos de los usuarios sin su consentimiento”, destacaba en este sentido Juan Carlos Hernández.

Por eso la UE quiere construir un estándar global, que se espera que tenga efectos fuera de Europa, debido a lo que se conoce como “efecto Bruselas”. Este estándar “regulará la IA y los países miembros tendrán escaso margen de modificación, para que no haya dumping regulatorio. Este modelo de inteligencia artificial debe ser seguro y respetar los principios de la Unión. Se pretende con esta seguridad jurídica que haya innovación, inversión y se generen empresas unicornio, detalla Hernández, que se refirió también a los neuroderechos, “un aspecto que no está cubierto aún” que delimite prácticas inadmisibles, como la manipulación subliminal o el scroll infinito, que permite visualizar el contenido de una página web a medida que el usuario se desplaza en sentido descendente por la misma, cargando nuevos contenidos cuando llega a la parte inferior sin necesidad de actualizar la página. Y esto “es inaceptable porque genera adicciones”.

En este sentido, José Ignacio Murillo, director del Grupo Mente-cerebro del ICS y catedrático de Filosofía de la Universidad de Navarra, recordó que la Inteligencia Artificial es la solución de problemas complejos mediante algoritmos, creados por personas, con sus sesgos.

Murillo destacó, por el contrario, las características distintivas de la inteligencia humana y la importancia de la cognición humana como forma de vida en un entorno cambiante, que nos ha permitido adaptarnos a las condiciones de todos los rincones del planeta. Por eso, comentó “resulta difícil reducir la inteligencia a la actividad de un órgano”, señaló. Y más difícil aún hacer una máquina con una inteligencia equivalente a la humana.

Juan Arana discrepó de esta concepción de la inteligencia humana de Murillo, en el interesante diálogo de la mesa redonda que puso fin al curso. Para Arana, no es la inteligencia la que nos diferencia de otros animales y de las máquinas, aunque evidentemente es cualitativamente diferente, sino que es la conciencia la que nos distingue, como motor del cambio que hace que la inteligencia animal o algorítmica se convierte en inteligencia consciente, que es la que nos ha permitido avanzar y situarnos a años luz del resto de las especies animales.