Impacto de la INTELIGENCIA ARTIFICIAL, sus profundas IMPLICACIONES SOCIOLÓGICAS, ECONÓMICAS Y ÉTICAS


       

                                 IMPACTO DE LA INTELIGENCIA ARTIFICIAL
       

         SUS PROFUNDAS IMPLICACIONES SOCIOLÓGICAS, ECONÓMICAS Y ÉTICAS


La Inteligencia Artificial ha ido ampliando su capacidad de gestionar datos en búsqueda de la solución a problemas desde los años 80 del siglo pasado.

Comenzaron las redes neuronales profundas, deep learning, que proporcionan aprendizaje profundo a los sistemas informáticos, desde mediados de los 80, cuando se desarrollan algoritmos con retroprogramación que entrenan al sistema para que autoaprenda.

Le siguió la minería de datos, que proporciona a los sistemas buscar soluciones a problemas a partir de grandes cantidades de datos incompletos, cuando a finales de los 90 se abarataron los sistemas de almacenamiento digital de la información, haciendo más barato su almacenaje digital que en papel. Permite, a partir de tan gran cantidad de datos que generamos, informar sobre lo sucedido, y, tras extraer conclusiones sobre lo sucedido predecir acontecimientos futuros.

Y llegó el Big Data , que, a partir de la ampliación de la capacidad de las máquinas para almacenar ingentes cantidades de datos, y aplicando una metodología distinta de programación, el paradigma MapReduce, presentado por Google en 2004, permite gestionar problemas que involucran a un ingente volumen de datos, de variada naturaleza, y que requieren ser procesados a una velocidad rápida.

Este avance ha propiciado la tecnología 4.0
Beatriz González Rojo en su conferencia para TEDxUDeusto en agosto de 2018 sobre la Tecnología 4.0 nos recuerda la gran oportunidad de avance tecnológico que esta tecnología representa.


La tecnología 4.0 es la 4a revolución industrial, y hay que quitar el miedo que toda nueva revolución industrial genera.
Nos informa que ahora trabajamos 6 veces menos y ganamos20 veces más que en la 1a revolución industrial. Y que además, ahora, los niños no trabajan.

Ya están aquí los avances de la tecnología 4.0: vehículos autónomos, llenos de sensores, de cartografías y gps, en Amazon; robots colaborativos; tecnología 3D que propicia la libertad de diseño; Big data, que son los rayos X del ingeniero, permitiendo entre otras funciones, la reducción del gasto energético al reducir fugas en compresores, por ejemplo.
Nos vamos a ahorrar transportar pesos y recoger datos..., para sacar tiempo para tomar decisiones. Estas tecnologías van a resolver problemas a partir de tantos datos generados por los sensores.


Y reflexiona: “Tanto en la vida como en el arte muchas veces hay que elegir entre sentir o entender”
Aparecerán nuevas profesiones. “Las máquinas son muy buenas dando respuestas , pero los humanos somos buenos haciendo preguntas” Gari Kasparov
La tecnología 4.0 es una revolución para las personas, para tener tiempo de ser más humanos.
Hay que quitarle el miedo, es una gran oportunidad.



La inteligencia artificial también ha propiciado los avances científicos en prácticamente todas las ramas del conocimiento, pues es una herramienta ya indispensable en la ciencia, dado la ingente cantidad de datos de que ya se disponen en todos los campos del ámbito socioeconómico, medicina, sociología, psicología, biología, economía, genómica, criminalística, transporte, ocio, etc. “Somos ricos en datos, pero pobres en conocimiento.” Alberto Prieto

Y surge así la Ciencia de Datos, que se centra en la extracción de conocimientos. 
Utiliza las habilidades asociadas al procesamiento de datos, tanto de las redes neuronales profundas, de la minería de datos, como del Big Data, con nuevos algoritmos(random forest RFS, random ferus DFE...), nuevas plataformas (Apache Hadoop, Apache Spart...), para manejar eficientemente las cantidades exorbitantes de datos.

Utiliza no sólo conocimiento de ciencia de datos, sino de informática, estadísticas, matemáticas, así como dominio de conocimientos del mundo concreto al que se aplica.
Todo ello con el objetivo de detectar la información que contienen los datos y conseguir extraer el conocimiento implícito en los mismos. Para así poder impulsar decisiones sobre operaciones y productos.

Dos ejemplos recientes
:
Aplicación de la IA en el fenotipado de ADN forense mediante “massive parallel sequencing”. Es una técnica emergente dentro del campo de la genética forense, que permite predecir características visibles del individuo a partir del ADN.
Esta herramienta se ha convertido un una de las más potentes para ayudar a estrechar el cerco de una investigación en diferentes casos forenses. Hasta ahora el color de ojos, piel, pelo, altura edad son los rasgos fenotípicos que se pueden predecir con la suficiente precisión y fiabilidad.


En la platafoma de ciencia Naukas, el 10 de abril de 2020, Guillermo Peris presentaba un interesante artículo “Descifrando rostros a partir de genes”, en el que muestra cómo los estudios de asociación del genoma completo (GWAS, genome-wide association study), que explica con más detalle en un enlace que introduce, están permitiendo la solución de casos forenses del pasado, aún sin resolver.


Pone un ejemplo notorio, un asesinado acompañado de violencia sexual en 1974, en el que quedaron muestras biológicas del asesino. En 2001, 27 años después, se obtuvo un perfil de ADN del asesino de esa muestra, se comparó con la base de datos de ADN de convictos de todo el país y no se encontró ningún sospechoso. En 2019 la policía contactó con la empresa Parabon Nanolabs, que a partir de la
muestra de ADN obtenida pudo dibujar un retrato robot del asesino, realizado por un dibujante forense en base a los datos que ofrece el programa..
Gracias al bosquejo del posible rostro del asesino que el fenotipado de ADN mostraba, se pudo relacionar con un individuo que vivía en la zona del crimen y que había estado involucrado en delitos violentos. Y se pudo comprobar que había sido también el autor del crimen de 1974, hasta entonces sin resolver.


Aclara en el artículo que el fenotipazo de ADN es una técnica que aún tiene baja fiabilidad, siendo en la actualidad un campo de investigación muy activo, y cuyas consecuencias en términos de privacidad podrían ser muy graves.
El modelo de Inteligencia Artificial que usa la empresa Parabon Nanolabs tiene una metodología no pública, por lo que no ha podido ser evaluada con revisión por pares.


Según las recién publicadas recomendaciones de la Comisión Técnica Permanente sobre nuevas tecnologías de análisis genético, recomendaciones hechas al Ministerio de Justicia de España, “...se usa exclusivamente como un instrumento de investigación, para reducir el número de sospechosos potenciales en el caso en los que el grupo de sospechosos es muy amplio y han fallado otros métodos de investigación(por ejemplo, tras no obtener ninguna coincidencia después de una búsqueda en la base de datos nacional forense). Es decir, la predicción de características físicas a partir de ADN no se utilizará como pruebas finales ante un tribunal, sino como una ayuda para la policía de cara a orientar sus investigaciones.”




Arquitectura 3D de la molécula de la proteína responsable de la replicación del coronavirus
La forma compleja de la molécula de la proteína y su densidad electrónica se calculan mediante algoritmos informáticos.
La arquitectura 3D de la misma proporciona puntos de partida concretos para el desarrollo de sustancias activas o inhibidoras


Otro ejemplo reciente de la aplicación de la IA se nos muestra en la noticia que aparece en El País, el 23 de marzo de 2020 bajo el título “Los ajedrecistas de silicio atacan ahora el coronavirus”.

El autor de la noticia, Leontxo García, experto en la evolución del deporte mental del ajedrez, es el reportero nacional que ha seguido a lo largo de los últimos 35 años los torneos y campeonatos de este deporte a lo largo del mundo, con lo que ha sido espectador destacado en primera fila de los avances de la IA en su afán de lograr superar a la inteligencia humana.

Por ello comienza el artículo con un reconocimiento: “Los padres de la informática Alan Turing y Claude Shannon tenían razón hace 70 años: el ajedrez ha sido un magnífico campo de experimentación de la inteligencia artificial, Deep Mind (empresa de Google) utiliza ahora lo aprendido con los deportes mentales más complejos (go y ajedrez) para acelerar la investigación sobre el coronavirus. Gracias a su programa AlphaFold (publicado en código abierto), la vacuna puede estar más cerca.”

“Turing y Shannon intuyeron que, si una máquina jugase mejor al ajedrez que el campeón del mundo, lo aprendido sería aplicable en campos muy importantes de la ciencia. Sobre todo, en lo relativo al cálculo molecular. IBM les dio la razón a partir de 1997, cuando el mítico programa Deep Blue, derrotó a Gari Kaspárov, considerado por muchos el mejor ajedrecista de la historia.
Las enseñanzas científicas de ese logro se aplicaron de inmediato en la fabricación de medicamentos complejos, la planificación agrícola, la meteorología y las finanzas, entre otros ámbitos. Y Deep Mind, cuyo consejero delegado, Demis Hassabis, fue un niño prodigio del ajedrez, sigue ahora un camino similar porque descifrar el comportamiento de las proteínas del virus COVID-19 implica un viaje a números cercanos al infinito.

Una combinación de las técnicas de aprendizaje profundo (Deep Learning) y aprendizaje automático (machine learning) sirvió en 2016 y 2017 para que los programas AlphaGo y AlphaZero jugasen millones de partidas de go y ajedrez, respectivamente, contra sí mismos a partir de conocimientos mínimos (las reglas del juego, y poco más). Organizaron toneladas de datos, crearon patrones, sacaron conclusiones y derrotaron claramente al campeón del mundo del go, Lee Sedol.”

Y prosigue. “Qué hace exactamente AlphaFold? Predecir la estructura en tres dimensiones de las proteínas, con mejores resultados que otras técnicas computacionales previas. El problema, conocido técnicamente como proteína holding, es muy complejo porque el número de maneras en que las proteínas se pueden plegar en 3D es astronómico. Conocer la estructura 3D de una proteína es importante ya que su función depende de su estructura, y eso, aplicado al coronavirus, puede acelerar el hallazgo de formas de controlarlo”
“Los rectores de Deep Mind, cuyo sistema de aprendizaje profundo para crear AlphaFold fue publicado hace dos meses en Nature, han decidido no esperar esta vez al largo proceso de verificación que este tipo de publicaciones (a veces más de seis meses) conllevan. Dada la transcendencia potencial de esta situación (la del coronavirus) y lo importante que es la rapidez, difundimos nuestra predicción de estructuras tal como están ahora, en código abierto, de modo que cualquiera pueda
utilizarla, explican en su comunicado”
en cursiva lo relatado por los responsables de Deep Mind en la revista Nature

Y en estos dos artículos recientes aparecen ya nominadas las profundas implicaciones sociológicas y éticas de la IA.


En la primera se muestra el gran logro técnico de una herramienta de IA que ayuda a la justicia, la criminología, y la medicina forense. Aplicada por una compañía que vende sus servicios sin mostrar sus sistemas operativos, con opacidad. Así es el sistema económico capitalista... Hace muchos años que sabemos de la opacidad, fuga de datos, ocultación de información, patentes millonarias, obstruccionismo, etc., por parte de los laboratorios farmacéuticos.
Y aparece nombrada La Comisión Técnica Permanente sobre nuevas tecnologías de análisis genético, que lanza una serie de recomendaciones al Ministerio de Justicia.

En el segundo artículo los rectores de Deep Mind hacen gala de un uso ético-moral de sus hallazgos, al difundir en código abierto los mismos, para propiciar una posible utilización por parte del mundo científico que favorezca a la población en general en este momento crítico de pandemia sanitaria.

El científico de datos ha de tener no sólo profundas competencias en técnicas computacionales, matemáticas y estadísticas para poder, a partir de los datos obtenidos, tratar con las diferentes fuentes de información; y poder implementar sistemas capaces de manejar grandes volúmenes de datos.

Ha de desarrollar también una gran madurez para combinar sus diferentes conocimientos técnicos para diseñar soluciones novedosas.
Necesita desarrollar habilidades transversales de trabajo en equipo, de comunicación de resultados..., y la creatividad y capacidad de adaptación a nuevos escenarios y problemas.

Ha de conocer y valorar las implicaciones sociales que la obtención de información a partir de datos, muchas veces personales, conlleva.


Por ello ha de recibir formación sobre los aspectos jurídicos y éticos relacionados con la Ciencia de Datos.

Alberto Prieto Espinosa, profesor emérito del Departamento de Arquitectura y Tecnología de Computadores de la Universidad de Granada, nos hace un resumen de los problemas éticos y jurídicos del uso de datos en la IA:
El principal problema que señala es sobre la seguridad y preservación de los datos. Considera que es de gran relevancia, y por ello hay que dedicar grandes esfuerzos, para
  • Mantener la confidencialidad de la información.
  • Respetar los derechos de propiedad.
  • Prever el uso fraudulento delictivo por intrusos .
  • Mejorar la seguridad para evitar pérdidas por averías.
Si los 4 puntos son indispensables (he sido testigo del daño a clientes y al sistema sanitario cuando una avería en el sistema informático ha hecho desaparecer los últimos datos de historias clínicas. Ya no sucede, en teoría, pues se conservan los datos replicados, aunque los piratas informáticos pueden en momentos puntuales colapsar todo el sistema de consultas médicas y la gestión de las urgencias hospitalarias, incluso suspender las intervenciones quirúrgicas programadas), considero que “prever el uso fraudulento delictivo de los datos” es algo que, como humanos con capacidades mentales de ser ilógicos y engañables, tenemos que esforzarnos por ir un paso por delante de las capacidades de los delincuentes. Difícil empresa, creo, pero muy necesaria.

El segundo problema que señala Prieto es el de la conservación de los datos a lo largo del tiempo, ya que los soportes informáticos actuales (magnéticos, eléctricos, ópticos...), no perduran en el tiempo. Nos informa que hay grupos de trabajo estudiando este problema, buscando soluciones.

Termina Prieto recordándonos que somos ricos en datos y pobre en conocimiento, como ya he reseñado antes.


La ciencia de datos es el sistema de cimientos sobre el que se construyen los nuevos avances científicos , tecnológicos, educativos y de la salud.
Acaban de mostrar en las Noticias de televisión que ha llegado a España un dispositivo que, colocado ante una validadora, o punto de paso fluido de personas, a modo de pequeña cámara de videovigilancia, detecta en milisegundos la temperatura corporal de las personas que pasan ante él, mostrándola en una pantalla, y pitando si se supera una temperatura pedida, en este caso 37,5o.
Nueva aplicación tecnológica buscando solucionar los nuevos problemas sociosanitarios.


Por ello es básico dotar a esta nueva ciencia, soporte de los demás avances científicos y técnicos, de un marco ético-moral y jurídico en el que desenvolverse.

Un ejemplo: Deep Mind, la empresa de IA adquirida por Google en 2014, creó el programa AlphaGo que ganó al campeón europeo Fan Hui en 2017.
Hace poco sus creadores decidieron enfrentar a Deep Mind a 40 millones de partidas de un juego de ordenador cuyo objetivo era recolectar fruta. Le introdujeron un nuevo ingrediente: el libre albedrío. Según avanzaba y aprendía, Deep Mind se volvió altamente agresivo. Ante este hecho, los desarrolladores del programa modificaron sus algoritmos para que la cooperación fuese el objetivo. Las cotas de éxito mejoraron enormemente cuando Deep Mind colaboraba con otros agentes. La IA puede reflejar lo mejor de la humanidad, sólo necesita aprenderlo.

“Es difícil que una máquina pueda calibrar las decisiones éticas humanas, por eso es tan importante que la IA pueda estar dotada de una ética, o un código de valores que condicione, a nuestra imagen y semejanza, la esencia de sus actos”. Miguel Ángel Barrrio en su artículo “La importancia de la ética en la Inteligencia Artificial

Por su parte, Fernando Broncano, catedrático de Filosofía de la ciencia, estudiando la relación de la humanidad y los entornos técnicos a través de la historia,
reflexiona que los artefactos de la ingeniería son objetos culturales. Y que un buen ingeniero ha de ser también un buen sociólogo y humanista. Y concluye : “Hay que imponer constricciones políticas, morales y éticas a la Inteligencia Artificial”. Al incorporar la IA a los procesos de las organizaciones, “es importante dotar a esta nueva tecnología de valores y principios. Y, dentro de las organizaciones, son los desarrolladores de esta tecnología las personas que realmente han de trabajar siendo conscientes de la implicaciones morales y éticas que conlleva su trabajo”.

Así, Elon Musk y Sam Altman han creado la Asociación sobre Inteligencia Artificial, en la que se invita a los principales líderes tecnológicos para poder identificar dilemas éticos y prejuicios, con el objetivo de establecer unas reglas de juego basadas en un marco de comportamiento moral, en el que la IA pueda desarrollarse en representación de la humanidad..

En 2017 el 92% de las empresas consideraba prioritario capacitar a sus tecnólogos en ética, y el 63% tenía un comité para revisar el buen uso de la IA. Es un tema necesitado de ser tratado y con una solución posible. Así, algunas compañías ya están comenzando a formar personas que a su vez están formando a las máquinas. Es una inclusión de la ética en los algoritmos que rigen de la inteligencia artificial. Es necesario que el machine learning se enriquezca de principios universales de respeto, libertad e igualdad. Roboética

El algoritmo ha de ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusiones que antes realizaba un ser humano. El código de la máquina no puede dañar a personas ni a empresas.

Consecuencia de esta preocupación, el Parlamento europeo realizó un informe sobre robótica en 2017, el Código Ético de Conducta. Y en diciembre de 2018 publicó el primer borrador de Guía ética para el uso responsable de la Inteligencia Artificial, fruto del trabajo de 52 expertos, centrándose en el ser humano, con el objetivo de la defensa de los derechos fundamentales.
Son estándares morales dirigidos a las personas creadoras de la tecnología:
  • Se debe asegurar que la IA está centrada en el ser humano.
  • Se debe prestar atención a los grupos vulnerables, como los menores de
    edad o las personas con discapacidades.
  • Debe respetar los derechos fundamentales y la regulación aplicable.
  • Debe ser técnicamente robusta y fiable.
  • Debe actuar con transparencia. NO debe restringir la libertad humana.

En Reino Unido, la Cámara de los Lores ha mostrado un informe sobre las “Implicaciones económicas, éticas y sociales de los avances en la inteligencia artificial”. En ese informe se propone un “Código de Inteligencia Artificial” nacional e internacional basado en cinco principios para asegurar que el país se convierta e un “líder mundial” en la aplicación de la industria del aprendizaje automático:
  • La inteligencia artificial debe desarrollarse para el bien común y el beneficio de la humanidad.
  • La inteligencia artificial debería operar según los principios de inteligibilidad y equidad.

  • La Inteligencia artificial no se debe utilizar para disminuir los derechos de los datos o la privacidad de las personas, las familias o las comunidades.

Todos los ciudadanos deberías tener el derecho a ser educados para permitirles evolucionar mental, emocional y económicamente junto con la inteligencia artificial.
El poder autónomo para herir, destruir o engañar a los seres humanos nunca debe ser conferido a la inteligencia artificial.

Elon Musk, físico, inventor, sudafricano nacionalizado canadiense, cofundador entre otras empresas de PayPal, Tesla Motors, Wikipedia..., junto a otros líderes mundiales, en agosto de 2017 mostraba la reticencia a utilizar la inteligencia artificial en armamento, argumentando que la falta de control sobre ella podría desencadenar consecuencias nefastas para la sociedad.
Según Musk “la inteligencia artificial es el raro caso en el que necesitamos ser proactivos en la regulación en lugar de reactivos. Porque creo que , para cuando hayamos reaccionado hacia la regulación de la IA, será demasiado tarde. La IA es un riesgo fundamental para la existencia humana”.

Otros grupos de expertos señalan como riesgos específicos de las nuevas tecnologías basadas en la aplicación de la inteligencia artificial: la rendición de cuentas a los humanos, la explicabilidad de los procesos que llevan a cabo, la imparcialidad, la privacidad, el respeto a la autonomía humana, como nuevos desafíos de esta nueva tecnología.

Existe un consenso entre autores al afirmar que la IA busca replicar la inteligencia humana en sistemas informáticos y robots.
¿Pero qué es la inteligencia humana? Desde diferente campos se ofrecen diferentes definiciones. La psicología propone, por ejemplo, el término “inteligencias múltiples” para referirse a la diversidad de habilidades y ámbitos en los que puede desplegarse el conocimiento humano.

La inteligencia artificial ha llegado para quedarse, se encuentra instalada en muchos de los dispositivos que nos rodean, smartphons, tablets, asistentes virtuales, etc.
Y como tecnología emergente necesita una legislación que la dirija por un camino prometedor.
Como una característica de la IA es sus capacidades de aprendizaje y de poder tomar decisiones, hay que ponerle el marco ético y legal a esas capacidades.

La compañía Acuilae, cuya principal objetivo es dotar de valores morales a la IA, ha creado un módulo de programación en Inteligencia Artificial que asegura tener en cuenta diversos patrones éticos y morales y comportamientos humanos para permitir a los robots analizar dilemas complejos y actuar de la manera mejor posible, tanto en conversaciones con humanos como ante diversas situaciones.
Es el módulo de programación de inteligencia artificial Ethyka.
Con este sistema se podrían solucionar problemas como el que presentó el robot conversacional Tay , de Microsoft, que tuvo que ser retirado porque comenzó a emitir mensajes con contenido racista.


Los robots y las máquinas actúan de forma automática, operando siempre de
acuerdo a su programación. Incluso los dispositivos más sofisticados, con aparente
capacidad de decisión, operan siempre dentro de los parámetros previamente
establecidos.
Un vehículo autónomo parece, en apariencia, estar tomando una decisión, escoger
ruta, sortear obstáculos... Pero esa aparente autonomía es un realidad un cálculo
de probabilidades en base a distintos parámetros que se han definido previamente
e introducido en el diseño del programa.

“Los dispositivos y sistema inteligentes poseen una clara relevancia ética, pero no
por ellos mismos, sino en la medida en que han sido diseñados y programados por
personas para operar de una determinada manera.
La responsabilidad ante el funcionamiento de estos sistema recae siempre sobre
los grupos de interés implicados en su diseño y elaboración.”
Cuadernos de la Cátedra CaixaBank de Responsabilidad Social Corporativa Sergio Marín, “Ética e inteligencia artificial” Setiembre 2019

Y como son los mismos profesionales que programan la Inteligencia Artificial los que supervisan sus resultados, son esos profesionales los que deben ser formados.

Manuel Cebrián e Iyad Rahwan, investigadores del MIT, plantean la necesidad de crear una nueva disciplina académica para el estudio del “comportamiento de la máquina”, y así formar a los profesionales en aspectos alejados del ámbito tecnológico, como la prudencia, la fiabilidad, la responsabilidad, la autonomía restringida, o el factor humano. Éstos, y otros, conceptos éticos hay que tratarlos, como el respeto a la autonomía humana, la transparencia, el diseño de sistemas seguros...

Junto al optimismo que suscita el enorme potencial de la inteligencia artificial, es necesaria un a actitud prudente que ayude a diseñar y emplear estos dispositivos de una manera justa, inclusiva y responsable.

Comentarios

Entradas populares de este blog

"Los LOGROS de una persona dependen más de las expectativas de éxito que de las capacidades"

Tecnologías flexibles o rígidas

EL CÓDIGO GENÉTICO