En los últimos años, el mundo ha experimentado eventos y cambios inesperados, que han transformado radicalmente los procesos de producción y de comunicación entre empresas y personas, abriendo nuevos paradigmas y dilemas éticos.
La tecnología, el internet y la revolución de la era de la información han venido a jugar un papel preponderante en las presentes y futuras generaciones
Hablar de
big data, inteligencia artificial (IA),
machine learning o aprendizaje automático, cloud computing, realidad virtual y
realidad aumentada, robótica avanzada, Internet de las Cosas (IofT), automóviles autónomos es algo cada vez más común. Forman parte de nuestra vida cotidiana, y su uso va a más.
Todos ellos constituyen elementos esenciales del presente y nos abren las puertas a un mundo de relación con el software, que incide en el comportamiento humano y no está exento de cuestionamientos éticos.
Empresas, instituciones, investigadores, ingenieros y filósofos llevan tiempo planteándose cómo abordar los
sesgos de la Inteligencia Artificial.
Hace un par de años, el
Comité de Inteligencia Artificial del Reino Unido, creado en la
Cámara de los Lores (la cámara alta del Parlamento británico) abordó estas preguntas y definió cinco
pilares éticos sobre los que debe construirse y desarrollarse la capacidad de las máquinas en lo adelante:
- El desarrollo de la Inteligencia Artificial debe ser para el
bien común y el beneficio de la humanidad
- La Inteligencia Artificial debe basar su funcionamiento en los
principios de justicia e inteligibilidad
- La Inteligencia Artificial no debe utilizarse para reducir el
derecho a la información o el derecho a la privacidad de las personas, las familias o la comunidad.
- Todos los ciudadanos deberían tener derecho a ser educados para florecer mentalmente, emocionalmente y económicamente, paralelamente a la Inteligencia Artificial.
- El poder autónomo para
dañar, destruir o engañar a los seres humanos no debería implementarse en la Inteligencia Artificial.
No es el único esfuerzo realizado el de los legisladores británicos. Muchos otros países están en ese mismo camino e, incluso, organizaciones multilaterales.
Hace poco, la
UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) lanzó una consulta global en línea para que el público opine sobre los
aspectos éticos de la inteligencia artificial que resumieron en 11 principios y en valores como la defensa de la dignidad humana, los derechos y libertades fundamentales, la no discriminación, la fiabilidad, la vida en armonía y la protección al medioambiente.
Estos resultados serán utilizados por un grupo internacional de expertos de la organización para redactar un marco regulatorio a nivel mundial para esta tecnología emergente.
Tras la publicación de esta consulta, la UNESCO expresó estar convencida de que existe “una necesidad urgente" de garantizar de forma global que la IA responde a los
problemas éticos, sociales y políticos de la humanidad de forma adecuada.
La UNESCO reconoce que, sin control, el desarrollo de la IA puede profundizar las divisiones y desigualdades existentes en el mundo y que no se debería dejar a nadie atrás contra su voluntad, ya sea en el disfrute de los beneficios de la IA o en la protección contra sus consecuencias negativas.
Queda evidenciada entonces la necesidad de contar con una
regulación ética de la inteligencia artificial, porque su mal uso genera riesgos que hay que tratar de mitigar.
Dilemas morales
Hay que reconocer que nuestras vidas están ligadas a la inteligencia artificial y cada vez lo estarán más, lo cual nos hace codependientes.
Es cierto que el paradigma de un mundo altamente tecnologizado nos aporta grandes ventajas como usuarios, pero también presenta una serie de
dilemas éticos y morales que por su complejidad convienen sean observados y ponderados seriamente.
Por ejemplo, si en nuestra ciudad se observa que, estadísticamente, determinada población de un cierto segmento y clase social, de sexo masculino y con una edad promedio de 40 años, es más proclive a cometer delitos, una máquina asumiría que todo individuo que encaje en ese perfil es, por ende, “necesariamente" un delincuente.
En algunos países ya se han registrado casos de “prejuicios" de máquinas en procesos de revisión automatizada de perfiles profesionales: la inteligencia artificial del sistema rechazaba automáticamente todos los currículos de mujeres, porque la posición ofertada había sido históricamente ocupada por varones. Una discriminación por razón de sexo que, seguramente, un reclutador humano no habría consentido.
Empezamos a dar el
poder a las máquinas para que tomen decisiones cotidianas que afectan la vida de las personas, pero no están capacitadas para abordar cuestiones morales, como en este último caso: ¿por qué rechazar a todas las candidatas femeninas como el criterio concluyente para ocupar un empleo?
El aspecto a considerar en un bot es que los
algoritmos con los cuales funciona están concebidos básicamente para resoluciones matemáticas; no consideran así la
ética, conducta y comportamiento humanos en el marco de sus libertades, deberes y derechos fundamentales.
Se ha tenido noticia de
atropellos a peatones
o ciclistas por parte de autos autónomos que, aunque estaban supervisados por un operador humano tras el guía, un sistema completamente autónomo de inteligencia artificial llevaba el control. El auto decidió chocar al peatón como alternativa a salvar al supervisor a bordo del vehículo, cuya vida es, para su algoritmo, prioritaria.
Se plantean en casos así
cuestiones éticas y legales. ¿Quién es el responsable del accidente, el supervisor o el vehículo que mantiene el control y toma la decisión de chocar a un peatón como un “mal menor"? El vehículo, al fin y al cabo, cumplió su cometido como máquina “inteligente".
Esto deja claro que es primordial poder tener
más control sobre cómo los sistemas recogen y procesan los datos y cómo los utilizan.
Porque no se trata de temer a la inteligencia artificial, sino más bien controlar bien los procesos que llevan a cabo las personas que desarrollan estos programas informáticos para que esa inteligencia artificial logre tomar decisiones más acordes a las de la inteligencia humana.
Si actúan con integridad y pensando siempre en el bien común del ser humano, los
desarrolladores serán responsables de crear una inteligencia artificial que apoye a la persona y a la sociedad en su progreso y crecimiento.
Por igual, hay que crear los mecanismos para que el
acceso a los datos por parte de cualquier persona sea sencillo, justo y responsable, para que los consumidores y ciudadanos en general confíen en la tecnología y esta les garantice que protege su privacidad e imagen personal en todo momento.
Una muestra de cómo esa imagen personal y la propia credibilidad está en juego la constituyen los llamados
deepfakes, desarrollos informáticos que utilizan el audio e incluso la voz de una persona y los manipulan de forma fraudulenta, haciéndolos pasar por completamente veraces.
Esto significa que hay que trabajar por mayor transparencia, por el uso de datos abiertos, contar con
comités éticos en empresas de desarrollo informático, aprobar leyes y reglamentos a nivel estatal que velen por la protección de los datos personales y su integridad.
Otro aspecto fundamental es la formación en capacidades tecnológicas de la población, a todos los niveles. Hay que
invertir en habilidades tecnológicas de forma importante, desde los gobiernos a las empresas privadas, para garantizar una correcta ciudadanía digital,
reducir la brecha social y mitigar los efectos negativos que pueden surgir con determinados desarrollos de la inteligencia artificial.
Por igual, este tipo de capacitación se convertirá en parte de la
formación continua de los trabajadores, por lo que las empresas deberán considerarlo en sus planes internos de desarrollo de carrera para no perder competitividad ni cuota de mercado.Por supuesto, también implica
fortalecer la ciberseguridad, especialmente en infraestructuras de redes de portabilidad. A mayor codependencia tecnológica, mayor riesgo asumimos de ciberataques, ocasionados en muchas ocasiones por la propia inconsciencia o desinformación del ciudadano.
Se hace necesaria una
información continua para elevar el nivel de conocimiento de la gente en este aspecto y hacer frente al cibercrimen.
Teletrabajo y ética
Ahora, con la pandemia generada por la COVID-19, hemos vivido el fenómeno del
trabajo remoto a una escala mundial nunca vista anteriormente.
Como nadie había experimentado algo semejante en las últimas décadas y nadie estaba preparado ni tenía una experiencia precedente que sirviera de parámetro, el salto a lo digital ha sido masivo.
Empresas, instituciones, familias y personas se han visto compelidos a transformarse profundamente en tiempo récord.
En este contexto, el teletrabajo se ha colocado en el centro del debate sobre la
ética personal.
Si nos conectamos en nuestras casas o cualquier ubicación para el teletrabajo, es debido a
cloud computing, que nos permite movernos de nuestra ubicación física tradicional, accediendo a material de la empresa, pero lejos de supervisores, lo cual pone a prueba la ética e integridad de cada trabajador.
El empleado debe mostrar un
mayor grado de responsabilidad a la hora de manejar documentos, ficheros y programas de la empresa, desde un entorno fuera de ella.
Mientras se desarrolla el teletrabajo, se hace necesario mantener vigente actitudes éticas, tales como:
- Mantener la
discreción y confidencialidad de las informaciones y documentos a los cuales se tiene acceso, seguramente desde locaciones o entornos con condiciones diferentes a las de la empresa, así como también la
custodia o protección de claves, garantizando que no lleguen al conocimiento de personas no autorizadas.
- Cuidar y dar uso racional y responsable a los equipos y herramientas facilitados o confiados por la empresa para continuar desempeñando las labores profesionales con eficiencia.
- Ser resiliente, innovador y evidenciar un
comportamiento ético y responsable para cumplir los objetivos en estos momentos de teletrabajo.
- Mantener vigente el criterio de la
línea de mando, informando debidamente a los supervisores antes, durante y después a cualquier actividad bajo su responsabilidad, aunque no estén laborando de manera presencial.
- Tener siempre presente cumplir fielmente las directrices y disposiciones que velen por la
seguridad de la información y la
conducta ética de la empresa, independientemente de los criterios personales en aspectos determinado, dando demostración de su identificación con los principios y normas institucionales.
Incrementar la lealtad y fidelidad a la empresa trabajando en remoto se reflejará en mayor productividad y esto contribuirá a aumentar el compromiso del empleador, fruto de la actuación y conducta ética del empleado.
En definitiva, son tiempos nuevos que significan una disrupción importante frente al trabajo tradicional y, por supuesto, frente al resto de facetas de la vida, en tanto la inteligencia artificial vaya ampliando su alcance.
Recientemente, los medios destacaban el último lanzamiento de Microsoft en este ámbito:
DeepSinger, un desarrollo de inteligencia artificial, basada en
machine learning, que es capaz de cantar con una voz "casi humana" (por el momento en inglés y en chino mandarín), lo cual abre interrogantes sobre cómo evolucionará la industria de la música a raíz de una innovación así.
El científico
Stephen Hawking pensaba que el desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana.
Y para eso no falta mucho, al parecer. Hace poco el empresario
Elon Musk, que está muy enfocado en el desarrollo de esta tecnología, advirtió que las personas están subestimando el rápido desarrollo del aprendizaje automático debido a los avances tecnológicos y que
en un lapso de cinco años la IA adelantará a la inteligencia humana, pero que eso no será el fin del mundo.
Lo cierto es que estamos en un momento de adaptación y aprendizaje para seguir avanzando: la inteligencia humana tendrá que convivir, desarrollarse y transformarse junto con la inteligencia artificial, aprovechando todo lo bueno que trae y mitigando los riesgos de un uso malintencionado.
Llegará el momento en que la inteligencia artificial anticipe crisis sanitarias y económicas globales como la que estamos viviendo y ayude a la humanidad a evitarlas y evitar sus dramáticas consecuencias en coste de vidas y de perjuicios económicos.