Inteligencia artificial: implicaciones éticas
La Inteligencia Artificial ha revolucionado muchas actividades y sectores: salud, transporte, logística, seguridad, ecología, manufactura y servicios, entre muchos otros. Como ventajas, los equipos y dispositivos inteligentes de todo tipo han permitido reducir costos, mejorar los productos y los servicios, o tener operaciones logísticas o de manufactura más eficientes y continuas, todo esto con escasa o nula intervención humana.
Esto último implica que más y más decisiones se transfieren de las personas a las máquinas, con el agregado de que las máquinas con Inteligencia Artificial no ejecutan acciones repetidas sin variaciones, sino que “aprenden”: almacenan información sobre sus propias acciones y sus resultados y, sobre esa base, mejoran su funcionamiento.
Para una IA benéfica
A primera vista, parece fantástico. Las máquinas se ocuparán de las labores rutinarias o peligrosas, mientras que las personas podrán dedicarse a actividades más provechosas, creativas y educativas o, simplemente, a descansar.
Sin embargo, hay voces de alerta contra el potencial uso antiético de la Inteligencia Artificial; por ejemplo, máquinas que repliquen los prejuicios de sus programadores o violen la privacidad de las personas. La advertencia más destacada se expuso en enero de 2015, cuando 150 científicos y empresarios publicaron la carta abierta “Prioridades de investigación para una inteligencia artificial robusta y benéfica”.
Las prioridades de investigación abarcan cuestiones de corto y largo plazo y en diferentes ámbitos (económico, ético, legal, tecnológico). En el ámbito social y económico de trata de responder preguntas como cuál será el impacto de la inteligencia artificial sobre el empleo y los salarios de los distintos tipos de trabajadores; cómo se distribuirá la riqueza que se cree con ayuda de las máquinas o cómo se empleará el tiempo libre que se espera será el resultado de menos horas de trabajo.
En el ámbito informático surgen algunas preguntas: una vez diseñado y construido un sistema basado en inteligencia artificial, ¿cómo probar que responde a las intenciones de sus creadores y que no se desempeñará de manera indeseada? ¿Cómo prevenir su manipulación intencionada por parte de terceros? ¿Cómo asegurar el control humano de un sistema de inteligencia artificial después de que empiece a operar?
Entre las firmas sobresalientes de esta carta están Hawking, Elon Musk (Tesla), Steve Wozniak (Apple), Demis Hassabis, Shane Legg y Mustafa Suleyman (DeepMind), Peter Norvig (Google) y decenas de académicos y directores de los mejores institutos de investigación y empresas tecnológicas del mundo (la carta aún recaba firmas; en noviembre de 2018 contaba con 8.000).
Dilemas éticos
El Instituto Tecnológico de Massachusets desarrolló la plataforma en internet “Moral Machine”, en la que se plantean los problemas éticos implicados en las decisiones tomadas por máquinas autónomas.
He aquí un ejemplo: un auto autónomo transita por uno de los canales de una avenida. Más adelante, hay una barrera de concreto contra la que se podría estrellar. En el otro canal, un grupo de personas cruza la avenida, pero no deberían estar haciéndolo, pues el semáforo para peatones está en rojo. ¿Qué decisión debe tomar el auto? ¿Estrellarse contra la barrera para salvar a los peatones (y matar a los ocupantes del auto) o atropellar a los peatones para salvar a los ocupantes?
Los 23 “Principios de Asilomar sobre Inteligencia Artificial” —la declaración de 2017 redactada en el parque Asilomar, en California— pueden ser una guía para orientarse en estos dilemas. El principio 16 establece que “los humanos deberían decidir cuándo y cómo delegar decisiones en los sistemas de inteligencia artificial”.
En tal sentido, tres profesores de la Universidad de Boloña señalan que el pasajero de un vehículo autónomo debería elegir previamente qué criterio ético adoptará el vehículo si se presenta una situación dilemática. Para eso proponen una “perilla ética” que permite escoger entre varios principios morales, de “muy altruista” a “muy egoísta”.
La respuesta a si se debe dejar que una máquina decida todo por su cuenta no es fácil; se supone que una máquina inteligente se usa porque es más eficiente. Pero eficiente no es lo mismo que ético; de allí los dilemas de la Inteligencia Artificial.
Si se sigue el principio 16 de la declaración de Asilomar, alguna parte de la respuesta está en conocer previamente los algoritmos del sistema de Inteligencia Artificial a partir de los cuales la máquina va a actuar y tener siempre la opción de tomar el control sobre el equipo.
Las máquinas no están libres de sesgos
Contratar a un nuevo empleado, condenar o perdonar a un sospechoso de un crimen u otorgar un crédito: todas estas son decisiones susceptibles de estar influidas por los prejuicios o las preferencias en torno a raza, género, cultura o posición socioecónomica. Por tal motivo, las grandes corporaciones han ensayado la delegación de tales decisiones en sistemas que emplean inteligencia artificial, en el supuesto de que una máquina será imparcial.
En el campo laboral, el blog especializado en recursos humanos The Undercover Recruiter predice que la Inteligencia Artificial será de gran ayuda en las labores de los departamentos de recursos humanos. Actualmente la Inteligencia Artificial ha resultado muy útil en varias tareas vinculadas al reclutamiento para puestos de trabajo, en actividades como búsqueda de candidatos, evaluación de currículos, investigación sobre las actividades de un postulante en internet, análisis biométricos y psicométricos del lenguaje verbal y corporal, y entrevistas preliminares.
La ventaja de la Inteligencia Artificial es que permite buscar candidatos en ambientes geográficos y profesionales que están fuera del radar habitual de los head hunters humanos, que generalmente recurren a los mismos circuitos de empresas y universidades.
Ahora bien, la experiencia y las investigaciones científicas han demostrado que hay que hacer monitoreo constante a estos sistemas, pues lo que en principio es una gran ventaja —que un sistema procese rápidamente cientos de currículos y escoja los mejores candidatos— puede replicar y amplificar los sesgos humanos.
Es célebre el caso del sistema de reclutamiento automático empleado por Amazon desde 2014. Una vez puesto en marcha, la compañía comenzó a darse cuenta de que discriminaba las hojas de vida de las mujeres y prefería contratar a hombres. ¿Dónde estaba el problema?: en los humanos.
Las computadoras de Amazon fueron alimentadas con datos de las postulaciones y las decisiones sobre reclutamiento hechas por la empresa en los últimos diez años, de manera que el sistema solo replicaba el pasado. La compañía retiró el programa en octubre de 2018 y aclaró que las decisiones sobre nuevos empleados no se basaban exclusivamente en los resultados del sistema.
De manera que, por lo menos hasta ahora, la Inteligencia Artificial es una herramienta de apoyo, pero no un sustituto de los humanos. John Jersin, vicepresidente de LinkedIn, afirmó que los sistemas desarrollados por esta red profesional no reemplazan a los reclutadores humanos. “Ciertamente hoy no confiaría en un sistema de inteligencia artificial para que tome por su cuenta una decisión de contratación”, dijo en una entrevista para el diario británico The Guardian. “La tecnología todavía no está lista”.
Estupidez artificial
Cuando se crea un sistema de Inteligencia Artificial, se pasa por una fase de “entrenamiento”, en la cual la máquina reconoce gradualmente cuáles son las acciones correctas, a partir de una variedad de insumos cada vez más amplia.
Ahora bien, como es imposible ofrecer todas las situaciones que pueden ocurrir en el mundo real, los sistemas de Inteligencia Artificial pueden ser engañados de una manera que no se puede hacer con los humanos. “Estupidez artificial” llama a este fenómeno Julia Bossmann, directora de Fathom Computing, empresa que en California desarrolla computadoras con tecnología de aprendizaje automático.
Bossmann ofrece el ejemplo de un patrón aleatorio de puntos que puede llevar a una máquina a “ver” una cosa que en realidad no existe: la máquina podría detenerse si identifica erróneamente que hay un obstáculo, o entrar en acción si su trabajo es transportar mercancías cuando en realidad no las hay.
Si las máquinas pueden fallar, la pregunta es: ¿se las puede dejar solas? ¿Cómo protegernos frente a sus errores? “Debemos asegurarnos de que la máquina se desempeñe como está planeado, y que la gente no le dé demasiado poder para usarla en su propio beneficio”. Las máquinas pueden ofrecer soluciones de eficiencia intachable, pero éticamente reprobables.
Recuerda:
Las cuestiones éticas en torno a la Inteligencia Artificial han alentado la creación de institutos y revistas especializados en este tema y las declaraciones de principios que ha seguido a las advertencias de Hawking, Musk y miles de académicos y empresarios es un indicador de la importancia del tema.
No hay que olvidar que la Inteligencia Artificial es una creación humana; por lo tanto, se puede imponer límites a su diseño, su uso y sus consecuencias. Por ejemplo, se han alzado voces críticas contra la construcción de máquinas de guerra autónomas, con capacidad para decidir a quién o a qué atacar, y en algunos países se han propuesto impuestos sobre los robots, que compensen posibles daños colaterales.
Como los seres humanos no son perfectamente racionales y sus decisiones están influidas por sesgos y prejuicios, la Inteligencia Artificial puede ayudar a mejorar la sociedad. Es lo que cree Cathy O’Neil, una matemática estadounidense cuyo libro Armas de destrucción matemática fue nominado al Premio Nacional del Libro de Estados Unidos de 2017.
Según O’Neil, las herramientas tecnológicas basadas en la recolección y el análisis de datos podrían servir de espejos a los humanos y revelarles sus juicios inexactos y sus interpretaciones ilógicas. “Los algoritmos solo repiten nuestro pasado, de manera que no tienen la innovación moral para tratar de mejorar nuestras vidas o nuestra sociedad. Pero mientras nuestra sociedad sea imperfecta, tendremos que ajustar algo para remover la discriminación… Sí creo que los algoritmos tienen el potencial para hacerlo mejor que nosotros”.
¿Te pareció útil este contenido?
Resumen: Las aplicaciones de la Inteligencia Artificial se extienden cada vez a más campos. Esta nueva tecnología es la base del desarrollo de un nuevo tipo de máquinas, capaces de aprender y actuar sin intervención humana. La pregunta es: ¿decide mejor una máquina que una persona? ¿Podemos dejar que una máquina decida cuando están implicados dilemas éticos?
Tiempo de consumo aproximado 3:00 min-
Ciencia de datos
-
Innovación Abierta
-
Negocios digitales
-
Administración de Inversiones
Compártelo en: