Ética de la inteligencia artificial y la robótica

La ética de la inteligencia artificial y la robótica ha recibido una cobertura de prensa significativa en los últimos años, lo que respalda la investigación relacionada, pero también puede terminar socavándola: la prensa a menudo habla como si los temas en discusión fueran solo predicciones de lo que traerá la tecnología futura, y como aunque ya sabemos qué sería más ético y cómo lograrlo. Por lo tanto, la cobertura de prensa se centra en el riesgo, la seguridad y predicción del impacto.

El resultado es una discusión de problemas esencialmente técnicos que se enfocan en cómo lograr un resultado deseado. Las discusiones actuales en la política y la industria también están motivadas por la imagen y las relaciones públicas, donde la etiqueta «ético» en realidad no es mucho más que el nuevo «verde», quizás utilizado para «lavado ético». Para que un problema califique como un problema para la IA, la ética requeriría que no sepamos fácilmente qué es lo correcto. En este sentido, la pérdida de empleo, el robo o la matanza con IA no es un problema de ética, pero si estos son permisibles en determinadas circunstancias es un problema.

Este artículo se centra en los problemas genuinos de la ética de l Inteligencia artificial y la robótica en los que no sabemos fácilmente cuáles son las respuestas.

IA y robótica

La noción de “inteligencia artificial” (IA) se entiende ampliamente como cualquier tipo de sistema computacional artificial que muestre un comportamiento inteligente, es decir, un comportamiento complejo que conduzca a alcanzar metas. Esto significa que incorporamos una gama de máquinas, incluidas las de «IA técnica», que muestran solo habilidades limitadas en el aprendizaje o el razonamiento, pero sobresalen en la automatización de tareas particulares, así como máquinas en «IA general» que tienen como objetivo crear una agente inteligente.

De alguna manera, la IA se acerca más a nuestra piel que otras tecnologías, de ahí el campo de la “filosofía de la IA”. Quizás esto se deba a que el proyecto de la IA es crear máquinas que tengan una característica fundamental en la forma en que los humanos nos vemos a nosotros mismos, es decir, como seres inteligentes, que sienten y piensan. Los propósitos principales de un agente artificialmente inteligente probablemente involucran la detección, el modelado, la planificación y la acción, pero las aplicaciones actuales de IA también incluyen percepción, análisis de texto, procesamiento del lenguaje natural (NLP), razonamiento lógico, juegos, sistemas de apoyo a la toma de decisiones, análisis de datos, análisis predictivo, así como vehículos autónomos y otras formas de robótica.

La IA puede involucrar cualquier cantidad de técnicas computacionales para lograr estos objetivos, ya sea la IA clásica de manipulación de símbolos, inspirada en la cognición natural, o aprendizaje automático a través de redes neuronales.

Históricamente, áreas como «aprendizaje automático», «procesamiento del lenguaje natural» y «ciencia de datos» a menudo no se etiquetaban como «IA». En 2010, el uso se ha ampliado nuevamente y, en ocasiones, casi toda la informática e incluso la alta tecnología se agrupa bajo “IA”.

Ahora es una industria en auge con una inversión de capital masiva. Puede permitirnos eliminar virtualmente la pobreza global, reducir masivamente las enfermedades y brindar una mejor educación a casi todos los habitantes del planeta.

Si bien la IA puede ser completamente software, los robots son máquinas físicas que se mueven. Los robots están sujetos a impactos físicos, generalmente a través de «sensores», y ejercen fuerza física en el mundo, generalmente a través de «actuadores», como una pinza o una rueda giratoria. En consecuencia, los autos o aviones autónomos son robots, y solo una porción minúscula de los robots es «humanoide» (con forma humana), como en las películas.

Algunos robots usan IA y otros no: los robots industriales típicos siguen ciegamente scripts completamente definidos con una entrada sensorial mínima y sin aprendizaje ni razonamiento. Probablemente sea justo decir que, si bien los sistemas robóticos causan más preocupaciones en el público en general, es más probable que los sistemas de inteligencia artificial tengan un mayor impacto en la humanidad. Los sistemas de inteligencia artificial o robótica para un conjunto reducido de tareas tienen menos probabilidades de causar nuevos problemas que los sistemas que son más flexibles y autónomos.

Por lo tanto, se puede considerar que la robótica y la IA cubren dos conjuntos de sistemas superpuestos: sistemas que son solo IA, sistemas que son solo robótica y sistemas que son ambos.

¿Qué es un código de ética de la IA?

Un enfoque proactivo para garantizar una IA ética requiere abordar tres áreas clave.

Política

Esto incluye desarrollar el marco apropiado para impulsar la estandarización y establecer regulaciones. Esfuerzos como los Principios de IA de Asilomar son esenciales para iniciar la conversación, y hay varios esfuerzos girando en torno a la política en Europa, EE. UU. y otros lugares.

Las políticas éticas de IA también deben incluir cómo abordar los problemas legales cuando algo sale mal. Las empresas pueden incorporar políticas de IA en su propio código de conducta. Pero la eficacia dependerá de que los empleados sigan las reglas, que pueden no siempre ser realistas cuando hay dinero o prestigio en juego.

Educación

Los ejecutivos, los científicos de datos, los empleados de primera línea y los consumidores deben comprender las políticas, las consideraciones clave y los posibles impactos negativos de la inteligencia artificial no ética y los datos falsos. Una gran preocupación es la compensación entre la facilidad de uso en torno al intercambio de datos y la automatización de la inteligencia artificial y las posibles repercusiones negativas del intercambio excesivo o las automatizaciones adversas.

En última instancia, la voluntad de los consumidores de tomar el control de sus datos de forma proactiva y prestar atención a las amenazas potenciales habilitadas por la IA es una ecuación compleja basada en una combinación de gratificación instantánea, valor, percepción y riesgo.

Tecnología

Los ejecutivos también necesitan diseñar sistemas de inteligencia artificial para detectar automáticamente datos falsos y comportamientos poco éticos. Esto requiere no solo mirar la propia inteligencia artificial de una empresa, sino también examinar a los proveedores y socios por el uso malicioso de la inteligencia artificial. Los ejemplos incluyen el despliegue de videos y texto falsos profundos para socavar a un competidor, o el uso de IA para lanzar ciberataques sofisticados.

Esto se convertirá en un problema cada vez mayor a medida que las herramientas de inteligencia artificial se conviertan en productos básicos. Para combatir este posible efecto de bola de nieve, las organizaciones deben invertir en medidas defensivas basadas en una infraestructura de inteligencia artificial abierta, transparente y confiable. Esto dará lugar a la adopción de estructuras de confianza que brinden un enfoque a nivel de sistema para automatizar la garantía de privacidad, garantizar la confianza de los datos y detectar el uso no ético de la inteligencia artificial.

Debates principales

En esta sección describimos los problemas éticos del uso humano de la inteligencia artificial y los sistemas robóticos que pueden ser más o menos autónomos, lo que significa que examinamos los problemas que surgen con ciertos usos de las tecnologías que no surgirían con otros. Debe tenerse en cuenta, sin embargo, que las tecnologías siempre harán que algunos usos sean más fáciles y, por lo tanto, más frecuentes, y dificultarán otros usos. Por tanto, el diseño de artefactos técnicos tiene relevancia ética para su uso, por lo que más allá del “uso responsable”, también necesitamos un “diseño responsable” en este campo. El enfoque en el uso no presupone qué enfoques éticos son los más adecuados para abordar estos problemas; bien podrían ser virtudes éticas en lugar de consecuencialistas o basadas en valores.

Privacidad y vigilancia

Existe una discusión general sobre la privacidad y la vigilancia en la tecnología de la información, que se refiere principalmente al acceso a datos privados y datos que son identificables personalmente. La privacidad tiene varios aspectos bien reconocidos, por ejemplo, la privacidad de la información, la privacidad como un aspecto de la personalidad, el control sobre la información sobre uno mismo y el derecho al secreto.

Los estudios de privacidad se han centrado históricamente en la vigilancia estatal por parte de los servicios secretos, pero ahora incluyen la vigilancia de otros agentes estatales, empresas e incluso personas. La tecnología ha cambiado significativamente en las últimas décadas, mientras que la regulación ha tardado en responder; el resultado es una cierta anarquía que es explotada por los jugadores más poderosos.

La esfera digital se ha ampliado enormemente: toda la recopilación y el almacenamiento de datos ahora es digital, nuestras vidas son cada vez más digitales, la mayoría de los datos digitales están conectados a una única Internet y cada vez se utiliza más tecnología de sensores que genera datos sobre aspectos no digitales de nuestras vidas. La IA aumenta tanto las posibilidades de recopilación de datos inteligente como las posibilidades de análisis de datos. Esto se aplica tanto a la vigilancia general de poblaciones enteras como a la vigilancia dirigida clásica. Además, gran parte de los datos se intercambian entre agentes, generalmente por una tarifa.

Al mismo tiempo, controlar quién recopila qué datos y quién tiene acceso es mucho más difícil en el mundo digital que en el mundo analógico del papel y las llamadas telefónicas. Muchas nuevas tecnologías de IA amplifican los problemas conocidos. Por ejemplo, el reconocimiento facial en fotos y videos permite la identificación y, por lo tanto, la elaboración de perfiles y la búsqueda de personas. Esto continúa utilizando otras técnicas de identificación, por ejemplo, “huellas dactilares del dispositivo”, que son comunes en Internet. El resultado es que nn este vasto océano de datos, hay una imagen espantosamente completa de nosotros.

El rastro de datos que dejamos atrás es cómo se pagan nuestros servicios «gratuitos», pero no se nos informa sobre la recopilación de datos y el valor de esta nueva materia prima, y ​​se nos manipula para dejar cada vez más datos de este tipo. Para las «5 grandes» empresas (Amazon, Google / Alphabet, Microsoft, Apple, Facebook), la parte principal de la recopilación de datos de su negocio parece basarse en el engaño, la explotación de las debilidades humanas, la procrastinación, la generación de adicción y la manipulación. El enfoque principal de las redes sociales, los juegos y la mayor parte de Internet en esta “economía de la vigilancia” es ganar, mantener y dirigir la atención y, por lo tanto, el suministro de datos.

Esta economía de vigilancia y atención a veces se denomina “capitalismo de vigilancia”. Ha provocado muchos intentos de escapar de las garras de estas corporaciones, por ejemplo, en ejercicios de «minimalismo» (Newport 2019), a veces a través del movimiento de código abierto, pero parece que los ciudadanos de hoy han perdido el grado de autonomía necesario para escapar mientras continúan plenamente con su vida y su trabajo. Hemos perdido la propiedad de nuestros datos. Podría decirse que hemos perdido el control de nuestros datos.

Estos sistemas a menudo revelarán hechos sobre nosotros que nosotros mismos deseamos suprimir o de los que no somos conscientes: saben más sobre nosotros de lo que nos conocemos a nosotros mismos. Incluso simplemente observar el comportamiento en línea permite comprender mejor nuestros estados mentales.

¿Qué pasará con la sociedad, la política y la vida cotidiana cuando los algoritmos no conscientes pero altamente inteligentes nos conozcan mejor de lo que nos conocemos a nosotros mismos?

Los dispositivos robóticos aún no han jugado un papel importante en esta área, a excepción de las patrullas de seguridad, pero esto cambiará una vez que sean más comunes fuera de los entornos industriales. Junto con el «Internet de las cosas», los llamados sistemas «inteligentes», «ciudad inteligente» y «gobierno inteligente», están configurados para formar parte de la maquinaria de recolección de datos que ofrece datos más detallados, de diferentes tipos, en tiempo real, con cada vez más información.

Las técnicas de preservación de la privacidad que pueden ocultar en gran medida la identidad de personas o grupos son ahora un elemento básico estándar en la ciencia de datos; incluyen anonimización (relativa), control de acceso (más cifrado) y otros modelos en los que el cálculo se realiza con datos de entrada total o parcialmente cifrados. Si bien requieren más esfuerzo y coste, estas técnicas pueden evitar muchos de los problemas de privacidad. Algunas empresas también han visto una mejor privacidad como una ventaja competitiva que se puede aprovechar y vender a un precio.

Una de las principales dificultades prácticas es hacer cumplir la regulación, tanto a nivel del estado como a nivel del individuo. Deben identificar a la entidad legal responsable, probar la acción, quizás probar la intención, encontrar un tribunal que se declare competente y, finalmente, lograr que el tribunal haga cumplir su decisión. Esto significa que las empresas con antecedentes “digitales” están acostumbradas a probar sus productos con los consumidores sin temor a ser responsables y, al mismo tiempo, defienden enérgicamente sus derechos de propiedad intelectual.

Manipulación del comportamiento

Las cuestiones éticas de la IA en la vigilancia van más allá de la mera acumulación de datos y la dirección de atención: incluyen el uso de información para manipular el comportamiento, en línea y fuera de línea, de una manera que socava la elección racional autónoma. Por supuesto, los esfuerzos para manipular el comportamiento son antiguos, pero pueden adquirir una nueva cualidad cuando utilizan sistemas de IA.

Dada la intensa interacción de los usuarios con los sistemas de datos y el profundo conocimiento que esto proporciona sobre las personas, son vulnerables a los «empujones», la manipulación y el engaño. Con suficientes datos previos, los algoritmos se pueden utilizar para apuntar a individuos o grupos pequeños con el tipo de información que probablemente influya en estos individuos en particular.

Muchos anunciantes, comercializadores y vendedores en línea utilizarán cualquier medio legal a su disposición para maximizar las ganancias, incluida la explotación de sesgos de comportamiento, el engaño y la generación de adicciones. Tal manipulación es el modelo de negocio en gran parte de las industrias del juego y los juegos de azar, pero se está extendiendo, por ejemplo, a las aerolíneas de bajo coste. En el diseño de interfaces en páginas web o en juegos, esta manipulación utiliza lo que se denomina “patrones oscuros”.

Además, las redes sociales son ahora el lugar principal para la propaganda política. Esta influencia se puede utilizar para dirigir el comportamiento de la votación, como en el «escándalo» de Facebook-Cambridge Analytica y, si tiene éxito, puede dañar la autonomía de las personas.

Las tecnologías mejoradas de «falsificación» de IA convierten lo que alguna vez fue evidencia confiable en evidencia no confiable; esto ya ha sucedido con fotos digitales, grabaciones de sonido y videos. Pronto será bastante fácil crear (en lugar de alterar) texto, fotos y material de video «profundamente falso» con cualquier contenido deseado. Pronto, también se falsificará la interacción sofisticada en tiempo real con personas a través de mensajes de texto, teléfono o video. Por lo tanto, no podemos confiar en las interacciones digitales mientras, al mismo tiempo, dependemos cada vez más de dichas interacciones.

Un problema más específico es que las técnicas de aprendizaje automático en IA se basan en el entrenamiento con grandes cantidades de datos. Esto significa que a menudo habrá un equilibrio entre la privacidad y los derechos a los datos frente a la calidad técnica del producto.

La protección de la privacidad ha disminuido enormemente en comparación con la era pre-digital cuando la comunicación se basaba en cartas, comunicaciones telefónicas analógicas y conversaciones personales y cuando la vigilancia operaba bajo importantes restricciones legales.

Si bien el Reglamento general de protección de datos de la UE ha reforzado la protección de la privacidad, EE. UU. y China prefieren un crecimiento con menos regulación, probablemente con la esperanza de que esto proporcione una ventaja competitiva. Está claro que los actores estatales y comerciales han aumentado su capacidad para invadir la privacidad y manipular a las personas con la ayuda de la tecnología de inteligencia artificial y continuarán haciéndolo para promover sus intereses particulares, a menos que estén controlados por una política en interés de la sociedad en general.

Opacidad de los sistemas de IA

La opacidad y el sesgo son cuestiones centrales en lo que ahora a veces se denomina «ética de los datos» o «ética de los macrodatos». Los sistemas de inteligencia artificial para el apoyo de decisiones automatizadas y el «análisis predictivo» plantean preocupaciones importantes sobre la falta de debido proceso, responsabilidad, participación de la comunidad y auditoría. Son parte de una estructura de poder en la que estamos creando procesos de toma de decisiones que restringen y limitan las oportunidades para la participación humana.

Al mismo tiempo, a menudo será imposible para la persona afectada saber cómo llegó el sistema a esta salida, es decir, el sistema es “opaco” para esa persona. Si el sistema implica aprendizaje automático, normalmente será opaco incluso para el experto, que no sabrá cómo se identificó un patrón en particular o incluso cuál es el patrón. El sesgo en los sistemas de decisión y los conjuntos de datos se ve agravado por esta opacidad. Por lo tanto, al menos en los casos en que existe el deseo de eliminar el sesgo, el análisis de la opacidad y el sesgo van de la mano, y la respuesta política debe abordar ambos temas juntos.

Muchos sistemas de IA se basan en técnicas de aprendizaje automático en redes neuronales (simuladas) que extraerán patrones de un conjunto de datos dado, con o sin las soluciones «correctas» proporcionadas; es decir, supervisado, semi-supervisado o no supervisado. Con estas técnicas, el «aprendizaje» captura patrones en los datos y estos se etiquetan de una manera que parece útil para la decisión que toma el sistema, mientras que el programador realmente no sabe qué patrones se han utilizado.

Lo que esto significa es que el resultado no es transparente para el usuario o los programadores: es opaco. Por tanto, si los datos ya implican un sesgo, el programa reproducirá ese sesgo.

Hay varias actividades técnicas que apuntan a la “IA explicable”. En términos más generales, la demanda de un mecanismo para dilucidar y articular las estructuras de poder, los prejuicios y las influencias que los artefactos computacionales ejercen en la sociedad a veces se denomina «informes algorítmicos de responsabilidad». Esto no significa que esperemos que una IA “explique su razonamiento”; hacerlo requeriría una autonomía moral mucho más seria de la que actualmente atribuimos a los sistemas de IA.

En la UE, algunas de estas cuestiones se han tenido en cuenta con el Reglamento (UE) 2016/679, que prevé que los consumidores, cuando se enfrenten a una decisión basada en el procesamiento de datos, tendrán un «derecho a la explicación» legal.

Sesgo en los sistemas de decisión

Los sistemas automatizados de apoyo a las decisiones de IA y el «análisis predictivo» operan sobre los datos y producen una decisión como «salida». Este resultado puede variar desde lo relativamente trivial hasta lo muy significativo. El análisis de datos se utiliza a menudo en «análisis predictivo» en los negocios, la salud y otros campos, para prever desarrollos futuros; dado que la predicción es más fácil, también se convertirá en un producto más barato. Un uso de la predicción es la “vigilancia policial predictiva” que muchos temen que pueda conducir a una erosión de las libertades públicas porque puede quitarle poder a las personas cuyo comportamiento se predice.

Una preocupación es que estos sistemas podrían perpetuar el sesgo que ya existía en los datos utilizados para configurar el sistema, por ejemplo, aumentando las patrullas policiales en un área y descubriendo más delitos en esa área. Las técnicas reales de «vigilancia policial predictiva» o «vigilancia policial dirigida por inteligencia» se refieren principalmente a la cuestión de dónde y cuándo se necesitarán más las fuerzas policiales.

El sesgo generalmente surge cuando se hacen juicios injustos porque el individuo que hace el juicio está influenciado por una característica que en realidad es irrelevante para el asunto en cuestión, típicamente una preconcepción discriminatoria sobre los miembros de un grupo. Entonces, una forma de sesgo es una característica cognitiva aprendida de una persona, que a menudo no se hace explícita.

Aparte del fenómeno social del sesgo aprendido, el sistema cognitivo humano es generalmente propenso a tener varios tipos de «sesgos cognitivos», por ejemplo, el «sesgo de confirmación»: los humanos tienden a interpretar la información como una confirmación de lo que ya creen. Existe la duda de si los sistemas de inteligencia artificial podrían o deberían tener tal sesgo cognitivo.

Una tercera forma de sesgo está presente en los datos cuando presenta un error sistemático, por ejemplo, «sesgo estadístico». Estrictamente, cualquier conjunto de datos solo será imparcial para un solo tipo de problema, por lo que la mera creación de un conjunto de datos implica el peligro de que se pueda usar para un tipo diferente de problema y luego resulte estar sesgado para ese tipo. El aprendizaje automático sobre la base de esos datos no solo no reconocería el sesgo, sino que codificaría y automatizaría el «sesgo histórico».

Este sesgo histórico se descubrió en un sistema de selección de contratación automatizado en Amazon que discriminaba a las mujeres, presumiblemente porque la empresa tenía un historial de discriminación contra las mujeres en el proceso de contratación.

Existen importantes esfuerzos técnicos para detectar y eliminar el sesgo de los sistemas de inteligencia artificial, pero es justo decir que se encuentran en las primeras etapas. Parece que las soluciones tecnológicas tienen sus límites en el sentido de que necesitan una noción matemática de justicia, que es difícil de conseguir, al igual que una noción formal de «raza».

Interacción humano-robot

La interacción humano-robot (HRI) es un campo académico por derecho propio, que ahora presta una atención significativa a los asuntos éticos, la dinámica de la percepción de ambos lados y los diferentes intereses presentes y la complejidad del contexto social.

Si bien la IA se puede utilizar para manipular a los humanos para que crean y hagan cosas, también se puede utilizar para conducir robots que son problemáticos si sus procesos o apariencia implican engaño, amenazan la dignidad humana o violan el requisito kantiano de “respeto por la humanidad”. Los seres humanos atribuyen muy fácilmente propiedades mentales a los objetos y sienten empatía por ellos, especialmente cuando la apariencia externa de estos objetos es similar a la de los seres vivos. Esto puede usarse para engañar a los humanos (o animales) para que atribuyan más importancia intelectual o incluso emocional a los robots o sistemas de inteligencia artificial de la que merecen.

Algunas partes de la robótica humanoide son problemáticas en este sentido, y hay casos que han sido claramente engañosos para propósitos de relaciones públicas (por ejemplo, sobre las habilidades de “Sophia” de Hanson Robotics).

Por supuesto, también se aplican a los robots algunas limitaciones bastante básicas de la ética empresarial y la ley: seguridad y responsabilidad del producto, o no engaño en la publicidad. Parece que estas limitaciones existentes resuelven muchas preocupaciones que se plantean. Sin embargo, hay casos en los que la interacción humano-humano tiene aspectos que parecen específicamente humanos en formas que quizás no puedan ser reemplazadas por robots: cuidado, amor y sexo.

Automatización y empleo

Parece claro que la inteligencia artificial y la robótica generarán ganancias significativas en la productividad y, por lo tanto, en la riqueza general. El intento de aumentar la productividad ha sido a menudo una característica de la economía, aunque el énfasis en el «crecimiento» es un fenómeno moderno. Sin embargo, las ganancias de productividad a través de la automatización generalmente significan que se requieren menos personas para el mismo resultado.

Esto no implica necesariamente una pérdida de empleo en general, porque la riqueza disponible aumenta y eso puede aumentar la demanda lo suficiente como para contrarrestar la ganancia de productividad. A largo plazo, una mayor productividad en las sociedades industriales ha generado una mayor riqueza en general. En el pasado se han producido importantes alteraciones del mercado laboral, por ejemplo, la agricultura empleaba a más del 60% de la población activa en Europa y América del Norte en 1800, mientras que en 2010 empleaba a ca. 5% en la UE,y menos aún en los países más ricos.

La automatización clásica reemplazó al músculo humano, mientras que la automatización digital reemplaza el pensamiento humano o el procesamiento de información y, a diferencia de las máquinas físicas, la automatización digital es muy barata de duplicar. Por tanto, puede significar un cambio más radical en el mercado laboral. Entonces, la pregunta principal es: ¿los efectos serán diferentes esta vez? ¿Se mantendrá la creación de nuevos puestos de trabajo y riqueza con la destrucción de puestos de trabajo? E incluso si es no diferente, ¿cuáles son los costes de transición? ¿Necesitamos hacer ajustes sociales para una distribución justa de los costes y beneficios de la automatización digital?

En principio, el efecto de la automatización en el mercado laboral parece entenderse bastante bien en el sentido de que involucra dos canales:

  • la naturaleza de las interacciones entre trabajadores con diferentes calificaciones y las nuevas tecnologías que afectan la demanda de trabajo y
  • los efectos de equilibrio del progreso tecnológico a través de los cambios consiguientes en la oferta de trabajo y los mercados de productos.

Lo que parece ocurrir actualmente en el mercado laboral como resultado de la automatización de la inteligencia artificial y la robótica es la «polarización del trabajo»: los trabajos técnicos altamente calificados tienen demanda y están bien pagados, los trabajos de servicios poco calificados tienen demanda y están mal pagados, pero los trabajos de calificación media en fábricas y oficinas, es decir, la mayoría de los trabajos, están bajo presión y reducidos porque son relativamente predecibles y con mayor probabilidad de estar automatizados.

En términos generales, el problema del desempleo es una cuestión de cómo los bienes en una sociedad deben distribuirse de manera justa. Parecería que la economía de la IA tiene tres características que hacen que tal justicia sea poco probable: primero, opera en un entorno en gran parte no regulado donde la responsabilidad es a menudo difícil de asignar. En segundo lugar, opera en mercados que tienen una característica de «el ganador se lo lleva todo» donde los monopolios se desarrollan rápidamente. Tercera, la “nueva economía” de las industrias de servicios digitales se basa en activos intangibles, también llamado “capitalismo sin capital”. Esto significa que es difícil controlar las corporaciones digitales multinacionales que no dependen de una planta física en una ubicación en particular.

Una pregunta interesante que no ha recibido demasiada atención es si el desarrollo de la IA es ambientalmente sostenible: como todos los sistemas informáticos, los sistemas de IA producen residuos que son muy difíciles de reciclar y consumen grandes cantidades de energía, especialmente para la formación del aprendizaje automático. Nuevamente, parece que algunos actores en este espacio descargan tales costes a la sociedad en general.

Ética de la máquina

La ética de la máquina es ética para las máquinas, para las máquinas como sujetos, más que para el uso humano de las máquinas como objetos. A menudo no está muy claro si se supone que esto debe cubrir toda la ética de la IA o ser parte de ella. A veces parece que está en juego la (dudosa) inferencia de que si las máquinas actúan de manera éticamente relevante, entonces necesitamos una ética de la máquina.

La ética de las máquinas se ocupa de asegurar que el comportamiento de las máquinas hacia los usuarios humanos, y quizás también hacia otras máquinas, sea éticamente aceptable.

El razonamiento de la IA debería poder tener en cuenta los valores sociales, las consideraciones morales y éticas; sopesar las respectivas prioridades de valores sostenidas por diferentes partes interesadas en varios contextos multiculturales; explicar su razonamiento; y garantizar la transparencia.

Parte de la discusión sobre la ética de las máquinas hace la suposición muy sustancial de que las máquinas pueden, en cierto sentido, ser agentes éticos responsables de sus acciones. A veces se observa que un robot que está programado para seguir reglas éticas puede modificarse muy fácilmente para seguir reglas poco éticas.

La idea de que la ética de la máquina puede tomar la forma de «leyes» ha sido investigada por Isaac Asimov, quien propuso «tres leyes de la robótica»:

  • Primera ley: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  • Segunda ley: un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  • Tercera ley: un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

No está claro que exista una noción consistente de «ética de la máquina», ya que las versiones más débiles corren el peligro de reducir «tener una ética» a nociones que normalmente no se considerarían suficientes.

Agentes morales artificiales

Si se considera que la ética de la máquina concierne a los agentes morales, en un sentido sustancial, entonces estos agentes pueden ser llamados «agentes morales artificiales», que tienen derechos y responsabilidades. Sin embargo, la discusión sobre entidades artificiales desafía una serie de nociones comunes en ética y puede ser muy útil entenderlas abstrayéndolas del caso humano.

Varios autores utilizan «agente moral artificial» en un sentido menos exigente, tomando prestado del uso de «agente» en la ingeniería de software, en cuyo caso no surgirán cuestiones de responsabilidad y derechos. Se han propuesto varias formas de lograr agentes éticos «explícitos» o «plenos», programándolo a través del «desarrollo» de la propia ética (moral funcional). Los agentes programados a veces no se consideran agentes «completos» porque son «competentes sin comprensión», al igual que las neuronas en un cerebro.

En algunas discusiones, la noción de “paciente moral” juega un papel: los agentes éticos tienen responsabilidades mientras que los pacientes éticos tienen derechos porque les importa el daño. Parece claro que algunas entidades son pacientes sin ser agentes, por ejemplo, animales simples que pueden sentir dolor pero no pueden tomar decisiones justificadas. Por otro lado, normalmente se entiende que todos los agentes también serán pacientes. Por lo general, se supone que ser persona es lo que convierte a una entidad en un agente responsable, alguien que puede tener deberes y ser objeto de preocupaciones éticas.

Responsabilidad por los robots

Existe un amplio consenso en que la rendición de cuentas, la responsabilidad y el estado de derecho son requisitos básicos que deben cumplirse frente a las nuevas tecnologías, pero la cuestión en el caso de los robots es cómo se puede hacer esto y cómo se puede asignar la responsabilidad. Si los robots actúan, ¿serán ellos mismos responsables de sus acciones? ¿O quizás la distribución del riesgo debería tener prioridad sobre las discusiones sobre la responsabilidad?

La distribución tradicional de la responsabilidad ya ocurre: un fabricante de automóviles es responsable de la seguridad técnica del automóvil, un conductor es responsable de conducir, un mecánico es responsable del mantenimiento adecuado, las autoridades públicas son responsables de las condiciones técnicas de las carreteras, etc.

Los efectos de las decisiones o acciones basadas en la IA son a menudo el resultado de innumerables interacciones entre muchos actores, incluidos diseñadores, desarrolladores, usuarios, software y hardware.

Derechos de los robots

Algunos autores han indicado que debería considerarse seriamente si se deben asignar derechos a los robots actuales. En este sentido, se ha propuesto un «giro relacional»: si nos relacionamos con los robots como si tuvieran derechos, entonces sería aconsejable no investigar si «realmente» tienen tales derechos. Esto plantea la cuestión de hasta dónde puede llegar ese anti-realismo o cuasi-realismo, y qué significa entonces decir que “los robots tienen derechos” en un enfoque centrado en el ser humano

Existe una cuestión totalmente distinta si los robots (u otros sistemas de inteligencia artificial) deben recibir el estatus de «entidades legales» o «personas jurídicas» en un sentido personas físicas, pero también los estados, empresas u organizaciones son «entidades», es decir, puede tener derechos y deberes legales. El Parlamento Europeo ha considerado asignar tal estatus a los robots para hacer frente a la responsabilidad civil, pero no a la responsabilidad penal, que está reservada a las personas físicas.

También sería posible asignar solo un cierto subconjunto de derechos y deberes a los robots. Se ha dicho que “tal acción legislativa sería moralmente innecesaria y legalmente problemática” porque no serviría a los intereses de los humanos.

También se ha dicho que las razones para desarrollar robots con derechos, o pacientes morales artificiales, en el futuro son éticamente dudosas. En la comunidad de investigadores de la «conciencia artificial» existe una preocupación significativa sobre si sería ético crear tal conciencia, ya que crearla presumiblemente implicaría obligaciones éticas para con un ser sensible, por ejemplo, no dañarlo y no poner fin a su existencia apagándolo.

Singularidad y superinteligencia

En algunos sectores, se cree que el objetivo de la IA actual es una «inteligencia artificial general» (AGI), en contraste con una IA técnica o «estrecha». AGI generalmente se distingue de las nociones tradicionales de IA como un sistema de propósito general y de la noción de “IA fuerte”.

La idea de singularidad es que si la trayectoria de la inteligencia artificial llega hasta sistemas que tienen un nivel humano de inteligencia, entonces estos sistemas tendrían por sí mismos la capacidad de desarrollar sistemas de IA que superen el nivel humano de inteligencia, es decir, son “superinteligentes «. Estos sistemas de IA superinteligentes se auto-mejorarían rápidamente o desarrollarían sistemas aún más inteligentes. Este giro brusco de los acontecimientos después de alcanzar la IA superinteligente es la “singularidad” a partir de la cual el desarrollo de la IA está fuera del control humano y es difícil de predecir.

El temor de que «los robots que creamos se apoderarán del mundo» había capturado la imaginación humana incluso antes de que existieran las computadoras. Este miedo fue formulado por primera vez como una posible trayectoria de la IA existente en una «explosión de inteligencia».

Hay posibles caminos hacia la superinteligencia además del aumento de la potencia de cálculo, por ejemplo, la emulación completa del cerebro humano en una computadora, caminos biológicos o redes y organizaciones.

De hecho, la mayor parte del progreso en IA se puede atribuir fácilmente a la disponibilidad de procesadores que son más rápidos en grados de magnitud, mayor almacenamiento y mayor inversión.

Puede ser que la IA futura se utilice para la mejora humana, o contribuya aún más a la disolución de la persona humana individual claramente definida.