Enfoque ético - Apéndice

Qué piensan los consumidores sobre la confianza y la ética

Cada vez más, la gente relaciona la confianza con la transparencia y la privacidad de los datos y, de hecho, muchas personas afirman que quieren tener el control sobre ellos.

En una encuesta de Rock Health realizada a 4.000 personas en EE. UU. en otoño de 2018, se preguntó a los entrevistados con quién estarían dispuestos a compartir datos sobre su salud:

  • Mi médico: el 72 % está dispuesto a compartir datos sobre su salud
  • Mi aseguradora de salud: el 49 %
  • Mi farmacia: el 47 %
  • Institución de investigación: el 35 %
  • Compañía farmacéutica: el 20 %
  • Organización gubernamental: el 12 %
  • Empresa tecnológica: el 11 %

No es de extrañar que la lista esté encabezada por médicos dado el sólido marco profesional que sustenta su posición de confianza con los pacientes y el público en general. Lo mismo ocurre con los farmacéuticos, aunque en menor medida.

Es algo sorprendente que las aseguradoras de salud ocupen el segundo lugar, pero podemos concluir que las personas encuestadas sienten que la aseguradora de salud está de su lado ya que cuanto más sanos estén sus clientes, mejor para ellas.

El hecho de que las empresas tecnológicas tengan una mala puntuación no es ninguna sorpresa, pero que tengan peor imagen que el gobierno muestra claramente el impacto que han tenido los ciertos escándalos recientes. Rock Health profundizó en esta categoría para ver qué empresas tenían más probabilidades de ganarse la confianza de los consumidores:

  • Google: un 60 %
  • Amazon: un 55 %
  • Microsoft: un 51 %
  • Apple: un 49 %
  • Samsung: un 46 %
  • Facebook: un 40 %
  • IBM: un 34 %

En Rock Health también se mostraron sorprendidos por el resultado, ya que esperaban que Apple obtuviera una puntuación más alta dado lo mucho que esta empresa promueve la privacidad como valor fundamental. De hecho, los puestos primero y último de la lista parecen no tener ningún sentido. Quizás lo mejor que podría decirse de esto es que los consumidores no ven gran diferencia entre las empresas de tecnología, lo que implica que tanto nosotros, como cualquier otra empresa, tendremos que trabajar duro para demostrar que de verdad se nos pueden confiar los datos de salud.

Marcos éticos en los que nos hemos basado:

La Iniciativa Global IEEE sobre Ética de Sistemas Autónomos e Inteligentes

La IEEE constituye un gran esfuerzo destinado a desarrollar estándares específicos para diferentes usos de la inteligencia artificial, como robótica, software de realidad mixta (VR, AR, etc.) y sistemas de armas autónomos. Todo ello se guía por un conjunto de principios generales:

  • Derechos humanos: garantizar que la IA no infrinja los derechos humanos de reconocimiento internacional.
  • Priorizar el bienestar: el bienestar es la satisfacción humana con la vida y las condiciones de vida, junto con un equilibrio correcto entre el afecto positivo y negativo.
  • Responsabilidad: los diseñadores y operadores de IA son conscientes de lo que hace la IA y por qué y pueden asumir la responsabilidad de sus acciones.
  • Transparencia: los sistemas de IA deben poder explicar por qué realizaron una acción, tanto a expertos como a no profesionales.
  • Conciencia del posible uso indebido de la tecnología: con un enfoque en la educación de desarrolladores, operadores y usuarios de IA.

La IEEE también está trabajando mucho en comprender qué valores deben integrarse en la IA para que pueda hacer el bien y ser ética. Inevitablemente se encuentran con problemas para definir un conjunto de valores universales, y en su lugar destacan que las normas deben identificarse con una comunidad en particular. Esta adopción del relativismo moral tiene que estar restringido por los derechos humanos universales.

Grupo de alto nivel de expertos en IA de la Comisión Europea

Este grupo adopta un enfoque basado en los derechos, que se fundamenta en la DUDH y la Carta de los Derechos Humanos de la UE, centrándose especialmente en lo siguiente: respeto por la dignidad humana; libertad individual; respeto por la democracia, la justicia y el estado de derecho; igualdad y no discriminación; y derechos de los ciudadanos. A continuación, el grupo establece cinco principios para la IA:

  • Beneficencia - "hacer el bien" - mejorar el bienestar individual y colectivo. Esto no está definido con detalle.
  • No maleficencia - "no hacer daño" - hace referencia a varios derechos humanos, pero no se da una definición completa de daño.
  • Preservar la agencia humana: las personas deben tener el control de sus propias acciones y decisiones y no ser desautorizadas por la IA.
  • Ser justo: asegurarse de que el desarrollo, el funcionamiento y el uso de la IA estén libres de sesgos y prejuicios.
  • Operar de forma transparente: ser capaz de explicar las operaciones de la IA a personas con distintos grados de conocimiento. Este principio también se relaciona con la transparencia para los modelos comerciales.

De forma algo confusa, tras haber establecido cinco principios, el grupo de la CE enumera diez requisitos a parte para una IA fiable: responsabilidad; gobernanza de datos; diseño para todos; supervisión humana de la IA; no discriminación; respeto por la autonomía humana; respeto por la privacidad; robustez; seguridad; y transparencia. No queda claro cómo se relacionan con los principios anteriores.

La Asociación de Maquinaria Informática (ACM por su nombre en inglés)

La ACM presentó su Declaración sobre transparencia y responsabilidad algorítmica en enero de 2017. Define siete principios:

  • Conciencia: los propietarios, diseñadores, constructores, usuarios y otras partes interesadas de los sistemas analíticos deben ser conscientes de los posibles sesgos involucrados en su diseño, implementación y uso y el daño potencial que los sesgos pueden causar a las personas y a la sociedad.
  • Acceso y reparación: los reguladores deben fomentar la adopción de mecanismos que permitan cuestionar y reparar a las personas y grupos que se vean afectados negativamente por decisiones con base algorítmica.
  • Rendición de cuentas: las instituciones deben ser responsables de las decisiones tomadas por los algoritmos que utilizan, incluso si no es factible explicar en detalle cómo los algoritmos producen sus resultados.
  • Explicación: se anima a los sistemas e instituciones que utilizan la toma de decisiones algorítmica a proporcionar explicaciones sobre los procedimientos que sigue el algoritmo y las decisiones específicas que se toman.
  • Procedencia de los datos: los creadores de los algoritmos deben describir cómo se recopilan los datos de formación, junto con una exploración de los posibles sesgos inducidos por el proceso de recopilación de datos humanos o algorítmicos. El escrutinio público de los datos ofrece más oportunidades de corrección. Sin embargo, las preocupaciones sobre la privacidad, la protección de secretos comerciales o la revelación de análisis que podrían permitir que agentes malintencionados jugasen con el sistema pueden justificar la restricción del acceso exclusivamente a profesionales y personas autorizadas.
  • Auditabilidad: los modelos, algoritmos, datos y decisiones deben registrarse para que puedan ser auditados en los casos en los que se sospeche que puede haber algún daño.
  • Validación y pruebas: las instituciones deben utilizar métodos rigurosos para validar sus modelos y documentar esos métodos y resultados. En particular, deben realizar pruebas de forma rutinaria para evaluar y determinar si el modelo genera un daño discriminatorio. Se anima a las instituciones a que hagan públicos los resultados de dichas pruebas.

El Comité Selecto de Inteligencia Artificial de la Cámara de los Lores del Reino Unido también ha propuesto cinco principios:

  • La IA debe desarrollarse para el bien común y el beneficio de la humanidad.
  • La IA debe funcionar según los principios de inteligibilidad y equidad.
  • La inteligencia artificial no debe utilizarse para recortar los derechos de los datos o la privacidad de las personas, las familias o las comunidades.
  • Todos los ciudadanos deben tener derecho a recibir una educación que les permita beneficiarse mental, emocional y económicamente de la IA.
  • El poder autónomo para herir, destruir o engañar a seres humanos nunca debe estar en manos de la IA.