domingo, 7 de abril de 2019

Antes de usar masivamente la inteligencia artificial hay que dotarla de responsabilidad ética

La inteligencia artificial (IA) y, en general, todas las nuevas tecnologías, son algo formidable. Son fruto de la inventiva de los seres humanos que, trabajando en red, hemos conseguido capacidades casi ilimitadas. Sirven para mejorar nuestro nivel de vida, cubrir muchas de nuestras necesidades, servir mejor a los demás…
También es cierto que los humanos, con todos nuestros defectos y debilidades, la hemos usado también para hacer cosas malas contra otros seres humanos, y contra otros seres vivos. Por ello es fundamental estudiar cómo aplicar la ética a las nuevas tecnologías.
Los problemas morales los tenemos las personas, no las máquinas ni el software. La ética ayuda a identificar los problemas, proporciona criterios para la valoración de las alternativas, para tomar la decisión mejor en cada caso y para implementarla. La ética también se preocupa de los efectos que las decisiones tienen sobre las personas. Porque los humanos aprendemos de nuestras acciones y de las de los demás… y esto nos cambia, y cambia nuestra manera de actuar. 
El diseñador, fabricante o usuario de, por ejemplo, un automóvil autónomo, debería preguntarse: ¿qué voy a hacer con él?, ¿cuál es el objeto de mi acción?, ¿qué pretendo o espero conseguir?, ¿cuál es mi intención o mi fin?, ¿qué consecuencias puede tener mi acción?, etc.
Lógicamente, esas preguntas necesitan respuestas sinceras, profundas y bien pensadas, entre otras razones porque el que se siente al volante de ese automóvil (si es que tiene volante) no tendrá mucho tiempo para hacerse esas preguntas cuando llegue el momento y menos para buscar una respuesta acertada.
El coche autónomo va a tomar, en milisegundos, decisiones por mí (su propietario/usuario), que tienen contenido ético y sin contar conmigo: cambiar de carril, elegir la velocidad, dejar pasar a otro vehículo más rápido, detenerse cuando hay un accidentado en la cuneta, hacer señales a un coche que lleva las luces largas, no respetar la limitación de velocidad…). ¿De quién será la responsabilidad ética por esas decisiones? ¿Del diseñador, fabricante, programador…, del conductor, pasajero, propietario…,? Obviamente, cada uno tendrá una responsabilidad, menos la máquina, que no puede ser responsable de nada, aunque sí trasladará la responsabilidad a otra persona, en la cadena de decisiones.
Las máquinas, los robots, la IA estará pronto técnicamente disponible: instrumentos de identificación de voz o de rasgos faciales, coches autónomos, armas que eligen sus objetivos y disparan sin preguntar al centro de control, robots cirujanos, robots que cuidan a niños, ancianos o enfermos, etc. Lo que caracteriza a esas máquinas es que recogen información y la procesan, sacan conclusiones y llevan a cabo acciones sin intervención o guía humana. Sin embargo para poder usar con mínimas garantías estos productos es imprescindible trabajar urgentemente en la elaboración de un conjunto de principios o normas éticas, que deben tener en cuenta los diseñadores y fabricantes, los que introducen esas máquinas en otros aparatos, los que las usan, los que regulan esos procesos, los que los controlan y supervisan…
  • Seguridad “razonable” del resultado, ahora y en el futuro 
  • Transparencia de los procesos 
  • Asunción de la responsabilidad de diseñadores, constructores y usuarios 
  • Alineados con valores (sociales, personales, de la empresa): dignidad, derechos humanos, libertad, diversidad cultural 
  • Privacidad en el acceso, uso y control de los datos 
  • Libertad protegida, ausencia de discriminación 
  • Abierta: beneficios compartidos 
  • Control de la capacidad futura de la IA 
  • No desestabilización de los procesos sociales y cívicos 
  • Prudencia en la planificación y gestión de los riesgos 
  • Cultura de cooperación, confianza y transparencia 
  • Evitar una carrera competitiva, con perjuicio de la seguridad 
  • Líneas rojas que no deben trasparsarse 
  • Compromiso de no desarrollar superinteligencias, si no es por ideales éticos compartidos, en beneficio de toda la humanidad 
  • No uso en la carrera de armamentos 
  • Control por los humanos: no hay inteligencia sin dirección
Hay que tener en cuenta que los principios no serán suficientes porque son generales y abstractos, no siempre se adaptan bien a las situaciones concretas y, a veces, se presentan conflictos entre principios. El ser humano (unos mejor que otros) puede entender los matices y llevar a cabo decisiones en situaciones confusas; esto se aprende a lo largo de la vida, y se va modificando con el aprendizaje. Pero el robot no puede hacer esto. Por eso, al final de todo el proceso, estará siempre la libertad y responsabilidad de la persona.
La ética no es opcional; es voluntaria y una exigencia de la excelencia. El directivo ético procura tener en cuenta todas las consecuencias relevantes de sus acciones, para los demás y para él mismo; sabe ponerse en la piel del otro, no omite la consideración de ninguna persona relevante interesada en el negocio; puede llevar a cabo una adecuada gestión del riesgo por los impactos y prácticas de la empresa; desarrolla una cultura de diálogo; se anticipa a los problemas; huye del cortoplacismo en la obtención de resultados (si le dejan sus accionistas)… Esas son las razones por las que los directivos/dirigentes deberían ser éticos: porque es la condición de excelencia: si no son éticos, no serán nunca unos excelentes directivos/dirigentes, aunque obtengan grandes beneficios y reconocimientos, porque estarán ciegos para una parte de la realidad, que es muy importante.
La empatía está en la esencia de nuestra humanidad. Sin empatía no existiríamos. Gracias a la empatía se desarrollan todas las Humanidades. Sobre todo la Ética. Porque sentimos, creemos y amamos a nuestros semejantes. Los robots hacen y harán cosas excepcionales, increíbles, y decidirán entre infinitas posibilidades. Pero, por ahora, no serán otra cosa que el producto del proceso de infinidad de datos, de programas, de ordenes que se den quizás a ellos mismos. 
¿Podremos, algún día, programar a los robots para que “sientan” empatía? Mientras ese día llega, ¿Porqué no limpiamos un poquito nuestras neuronas “espejo” y con ello podríamos ser también un poquito más éticos?
La ciencia y las técnicas avanzan cada vez más rápidamente. Por ello es urgente formar a los jóvenes como seres humanos responsables y éticos y asegurarse que aprendan a desarrollar planes consistentes, eficientes y eficaces.