Resumen

La inteligencia artificial ha abierto escenarios hasta ahora inexplorados para la humanidad, la tecnología ha revolucionado el mundo y con él, el derecho está en la necesidad de responder a los nuevos retos que se plantean. La vulneración de derechos humanos por sistemas de inteligencia artificial abre la puerta a cuestionamientos sobre las respuestas jurídicas que se deben dar, una de ellas, el control humano, como un nuevo derecho para garantizar la veeduría humana en el diseño y desarrollo de dichos sistemas con el fin de evitar afectaciones a derechos ya existentes. La pregunta entonces que suscita esta investigación es, ¿cómo se debe regular el control humano en la inteligencia artificial como un derecho en el ordenamiento jurídico colombiano?

 

Para responderla, se presenta una propuesta de regulación del derecho al control humano, con los elementos que ello implica, tales como su conceptualización, contenido, implicaciones jurídicas y garantía del mismo, a partir de los desarrollos jurídicos que puedan nutrir el análisis y sobre todo, teniendo en cuenta los avances en las discusiones que al respecto se están dando en el mundo.

 

Palabras clave: inteligencia artificial, derechos humanos, control humano, regulación.

Introducción

La inteligencia artificial es sin lugar a dudas uno de los mayores desarrollos tecnológicos, por lo menos, del siglo XXI. Su capacidad para incidir en la vida pública y privada de las personas y con ellas, de las sociedades, ha sido un factor determinante para posicionarse como un avance tecnológico vanguardista y prometedor para la humanidad. En este sentido, la inteligencia artificial ha sido entendida como el conjunto de técnicas, algoritmos y herramientas que permiten resolver problemas, para los que, a priori, es necesario cierto grado de inteligencia, en el sentido de que resuelve problemas que suponen un desafío incluso para el cerebro humano (García, 2017).

 

La inteligencia artificial puede ser comprendida como una simulación del razonamiento humano por parte de sistemas artificiales, con el propósito de resolver problemas complejos y en últimas, mejorar la calidad vida de las personas en las sociedades contemporáneas. Resultado de lo anterior, son las múltiples evidencias en el campo médico, comercial, educativo, laboral, entre otros, en los que el uso de la inteligencia artificial ha permitido la optimización de los procesos, el almacenamiento a gran escala de la información y el avance tecnológico a partir de desarrollos innovadores que imitan la inteligencia humana (Oppenheimer, 2018).

 

Son innegables los múltiples beneficios que la inteligencia artificial ha aportado a las sociedades del siglo XXI. Sin embargo, el propósito de la presente investigación no es centrarse en los beneficios de la inteligencia artificial que hasta ahora se han descrito, sino, centrarse en las consecuencias negativas que dicha tecnología ha tenido sobre la sociedad actual, de manera particular, sobre la protección de derechos humanos. Lo anterior, con el propósito de analizar a partir del problema identificado, las respuestas jurídicas que se deben ofrecer para contrarrestarlo.

En otras palabras, el objetivo de la presente investigación es identificar los problemas que la inteligencia artificial representa actualmente para la protección de los derechos humanos ya reconocidos, tanto por los instrumentos de Derecho internacional como por los diferentes ordenamientos jurídicos estatales. Para luego, formular algunas alternativas de solución al problema identificado a partir de respuestas jurídicas vanguardistas, tales como el reconocimiento del control humano en la inteligencia artificial como un nuevo derecho.

1. Vulneración de los derechos humanos por el uso de la inteligencia artificial

La inteligencia artificial lejos de ser neutral respecto a los derechos humanos, tiene una incidencia directa sobre los mismos. Positiva o negativamente la inteligencia artificial impacta los derechos de las personas, incorporándose en las instituciones sociales existentes, tales como el Estado, las instituciones educativas, los centros de trabajo y el mercado. Cada sistema artificial impacta una multitud de derechos de formas complicadas y, en ocasiones, contradictorias (Berkman Klein Center, 2018).

 

Partiendo de esta base, lo que se propone en este apartado es evidenciar la manera como la inteligencia artificial se relaciona con los derechos humanos, particularmente con cuatro de ellos: la igualdad, la privacidad, el debido proceso y la libertad de expresión, mediante la identificación de sus patrones de comportamiento, que dan lugar a la vulneración de dichos derechos. Para esto, se hará un análisis a partir de situaciones reales que han evidenciado la imperfección de los sistemas de inteligencia artificial y hechos cotidianos que permean todas las esferas de la vida.

 

  • Igualdad

 

Uno de los mayores riesgos de la inteligencia artificial es que sus sistemas se convierten en mecanismos para perpetuar, amplificar y, en última instancia, osificar los prejuicios sociales existentes, lo que es a todas luces una vulneración al derecho a la igualdad. A diferencia de los tomadores de decisiones humanos, que tienen agencia y libre albedrío para cambiar su perspectiva moral con el tiempo, los sistemas de inteligencia artificial no tienen dichas capacidades, por lo que requieren una atención constante por parte de los responsables del diseño y operación de dichos sistemas para asegurar que sus resultados sean equitativos y no discriminatorios.

 

Esta situación responde a que los sistemas de inteligencia artificial están entrenados para replicar patrones de toma de decisiones que aprenden de los datos que alimentan dichos sistemas, los cuales pueden responder a prejuicios humanos existentes y dinámicas de poder arraigadas en las relaciones sociales, perpetuando dichos prejuicios y reproduciendo condiciones de desigualdad en nuevos escenarios digitales.

 

Son ejemplos de la perpetuación de estereotipos existentes y de la segregación social producto de la inteligencia artificial, la utilización de la misma en escenarios de (i) persecución del crimen, (ii) educación, (iii) acceso a créditos y (iv) acceso al mercado laboral. Así, sobre la (i) persecución del crimen, cabe mencionar los casos del “big data policing”, el cual es utilizado por las autoridades de policía para predecir el crimen, con base en determinados perfiles que son construidos a partir de datos cuya neutralidad racial es seriamente cuestionada, y que, en esa medida, pueden perpetuar estereotipos discriminatorios (Executive Office of the President, 2016). De esta manera, se debe procurar que los datos y los sistemas algorítmicos no se utilicen de manera que exacerben las disparidades injustificadas en el sistema de justicia penal.

 

En cuanto a (ii) la educación, al tomar decisiones de admisión, las instituciones de educación superior pueden usar técnicas de big data para tratar de predecir la probabilidad de que un solicitante se gradúe antes de ingresar a la universidad. Al usar este tipo de prácticas de datos, algunos estudiantes podrían enfrentar barreras de admisión porque estadísticamente son menos propensos a graduarse. Las instituciones también podrían negar a los estudiantes de familias de bajos ingresos u otros estudiantes que enfrentan desafíos únicos para graduarse, el apoyo que se merecen o que necesitan para pagar la universidad. Esto, a su vez, crea la preocupación que a medida que las escuelas se apresuran a reducir costos, algunos solicitantes podrían enfrentar mayores barreras para la admisión si se les considera indignos de los recursos adicionales que se necesitarían para mantenerlos inscritos (Executive Office of the President, 2016).

 

Por su parte, en lo que respecta al (iii) acceso a créditos, puede suceder que al usar sistemas de inteligencia artificial a partir de criterios como el historial crediticio, se quede por fuera una parte de la población, por no contar con el suficiente historial de pago de crédito. Adicionalmente, se ha encontrado una fuerte relación entre los ingresos y un buen puntaje para acceder a créditos, lo que responde a un criterio sospechoso de discriminación (Executive Office of the President, 2016). En este sentido, si el big data no se utiliza con criterios objetivos para este tipo de procesos, puede perpetuar o enmascarar la discriminación ya establecida en la sociedad.

 

Finalmente, en cuanto al (iv) acceso al mercado laboral, mediante el uso de algoritmos y grandes conjuntos de datos, se pueden reproducir juicios y suposiciones a la hora de realizar contrataciones laborales. Aquellos esfuerzos para usar el análisis de datos para crear e implementar herramientas predictivas deben trabajar duro para garantizar que dichos algoritmos no dependan de factores que desproporcionadamente seleccionan comunidades particulares en función de características como la raza, la religión, el nivel de ingresos, la educación u otras entradas de datos que pueden contener sesgos discriminatorios (Executive Office of the President, 2016).

 

En atención a lo anterior, se evidencia cómo decisiones con impacto tanto individual como colectivo, que tradicionalmente eran tomadas por humanos, ahora son tomadas por sistemas de inteligencia artificial (Oliver, 2018). Dichas decisiones están también compuestas por sesgos discriminatorios y prejuicios de los humanos, lo que responde en gran medida a errores en los datos.

 

  • Privacidad

 

Hablar de inteligencia artificial supone necesariamente hablar de datos. Ellos son el insumo de la inteligencia artificial, a partir de los cuales se construyen los algoritmos para que los sistemas puedan, a partir del aprendizaje autónomo, generar respuestas, predecir situaciones, decidir y, en últimas, imitar la inteligencia humana. En consecuencia, los sistemas de inteligencia artificial dependen de la recopilación, el almacenamiento, la consolidación y el análisis de grandes cantidades de datos, y a su vez, crea incentivos para recopilar y almacenar tantos datos adicionales como sea posible, en vista de la posibilidad de que nuevos flujos de datos permitan que los sistemas de inteligencia artificial generen nuevos conocimientos.

 

Ahora bien, qué tipo de datos son los recopilados y cómo se recopilan, son preguntas cuyas respuestas implican en muchas ocasiones situarse en el tratamiento de datos personales y con ellos, adentrarse en una de las esferas más íntimas del ser humano: su vida privada y con ella, los derechos que la cobijan, tales como la privacidad. Son datos personales, toda la información sobre una persona física identificada o identificable, esto es, toda persona cuya identidad puede determinarse, directa o indirectamente mediante un nombre, un número de identificación, datos de localización, un identificador en línea o uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica, cultural o social de dicha persona (Parlamento Europeo, 2016)

 

En este sentido, los datos personales pueden cumplir múltiples tareas en función de la inteligencia artificial, tales como, prestar bienes o servicios, identificar necesidades en el mercado, ofrecer contenidos personalizados y hasta compartir información con terceros, que pueden ser anunciantes, empresas, proveedores de servicios, investigadores académicos y autoridades públicas (Newman, 2019).  Dichos datos, pueden ser obtenidos, en principio, de tres fuentes: (i) los proporcionados por el usuario o el cliente, (ii) los datos recolectados a través de web tracking y (iii) los datos proporcionados por socios estratégicos.

 

En lo que respecta a los datos proporcionados por el usuario o cliente, se trata usualmente de información que este proporciona al crear una cuenta o perfil, usar el servicio, hacer una compra o al subir contenido a una plataforma o aplicación. Frente a los datos recolectados a través de web tracking, estos incluyen normalmente datos sobre las aplicaciones, los navegadores y los dispositivos que utiliza el usuario o cliente y sobre su actividad en la respectiva plataforma o aplicación. Por su parte, en relación con los datos proporcionados por socios estratégicos, las fuentes más comunes son los terceros que prestan algún servicio en nombre de la empresa, las empresas de marketing o anunciantes que les proporcionan servicios publicitarios y de investigación, las plataformas de terceros en las que la empresa tiene cuentas, como cuando los usuarios utilizan la función “Me gusta” en Facebook o la función +1 en Google y las aplicaciones y plataformas para ofrecer servicios de crédito y financieros a determinados usuarios (Newman, 2019).

 

Como se evidencia entonces, las anteriores fuentes pueden proporcionar datos personales, los cuales resultan constantemente expuestos en el uso de sistemas de inteligencia artificial. Su recopilación, tratamiento y uso son, en muchas ocasiones, desconocidos por sus titulares, lo que puede desencadenar en impactos perjudiciales en el derecho a la privacidad. Solo a modo de ejemplo, son reflejo de dicho riesgo, la manera como los robots inteligentes permiten el almacenamiento masivo e indiscriminado de datos, dentro de los que pueden estar los personales, como imágenes, voces y rasgos faciales, a partir de los cuales pueden ser entrenados para pensar y tomar decisiones de manera independiente (Santos, 2017) o la capacidad que tienen los sistemas de inteligencia artificial para advertir situaciones futuras, antes que sus mismos titulares, como fue el sonado caso de la cadena de almacenes Target, que conoció del embarazo de una joven adolescente, antes que sus propios padres, a partir del análisis de los datos de sus compras (Newman, 2019).

 

  • Debido proceso

 

El derecho y las actividades jurídicas no son ajenas a la inteligencia artificial, por lo que de manera gradual han incorporado en sus procedimientos el uso de dichos sistemas que, en principio facilitan y agilizan sus funciones. Muestra de lo aquí señalado es la creciente participación y disponibilidad de las tecnologías de inteligencia artificial en el funcionamiento de las áreas jurídicas, con el propósito de crear una nueva clase de herramientas que soportan el análisis jurídico en diferentes actividades, que hasta el momento solo eran ejercidos por operadores jurídicos (Farage, 2018)

 

Para McGinnis e Pearce (2014) el papel de las máquinas en la transformación del derecho comprende cinco aspectos diferentes. El primero de ellos es el descubrimiento legal, traducido en la aplicación de métodos de búsqueda realizados por la máquina en el análisis de documentos legales. En un segundo paso, la tecnología se presta para la investigación jurídica a través de algoritmos que identifican los aspectos más relevantes de la doctrina y la jurisprudencia. Además, y según los autores, las máquinas ayudan a la generación automática de documentos estructurando formularios, así como generar memorandos e informes. Finalmente, McGinnis y Pearce afirman el uso de la tecnología para pronosticar casos judiciales combinando información y analizándola (Farage, 2018).

 

En este escenario, cabe hacer hincapié en los sistemas jurídicos expertos, como uno de los desarrollos de la inteligencia artificial con mayor incidencia en las actividades jurídicas y sobre todo estatales. Al respecto, se debe señalar que los Sistemas Jurídicos Expertos (SJE) son la estructuración de conocimiento especializado en términos jurídicos, que acoplados a un mecanismo de inferencia, arroja conclusiones de información suministrada en forma de preguntas y respuestas. En virtud de estos sistemas, se pretende resolver problemas que se presentan al interior del dominio jurídico, mediante la simulación de razonamientos que expertos han obtenido por sus conocimientos y experiencias adquiridas, con el objetivo de alcanzar resultados de un experto humano en la tarea asignada. Particularmente, se debe señalar que estos sistemas son utilizados para apoyar la toma de decisiones de los jueces y emitir sentencias en los diferentes juicios que realizan, a partir de un prototipo de sentencia cuya base de conocimiento está integrada por los requisitos de forma y fondo de una determinada sentencia del derecho. (Batista, et. al, 2019).

 

Por su parte, cabe resaltar las apuestas que en Colombia se están haciendo desde la administración de justicia, para incorporar en ella sistemas de inteligencia artificial. Dentro de esta labor sobresalen tres propuestas novedosas: (i) Prisma, (ii) Prometea y (ii) la digitalización del expediente judicial.  Sobre (i) Prisma, se debe señalar que es un sistema de inteligencia artificial diseñado por la Fiscalía General de la Nación para predecir el riesgo de reincidencia criminal de personas capturadas, con el objetivo de reducir errores en las decisiones sobre medidas de aseguramiento privativas de la libertad.

 

Prisma predice la probabilidad de reincidencia y genera un perfil para cada individuo, a través de un modelo de aprendizaje supervisado, que se construye con el ingreso de datos relacionados con las características del individuo, las características del último evento criminal, los delitos previos, las medidas de aseguramiento previas, las capturas previas y la información previa del INPEC y a partir de esta información, se construye una conclusión acerca de la probabilidad de reincidencia (Fedesarrollo, 2020).

 

Por su parte, (ii) Prometea consiste en una herramienta de inteligencia artificial adoptada por la Corte Constitucional colombiana para la selección de tutelas que serán revisadas por el alto tribunal. Este sistema es adoptado de la Fiscalía de Buenos Aires, Argentina y funciona como una herramienta para automatizar la tarea que de selección de tutelas, que hasta el momento realizan estudiantes de derecho con la supervisión del personal de la Corte Constitucional.  Finalmente, (iii) en el año 2019 se dio inicio al proyecto de expediente digital para la Rama Judicial en Colombia con el apoyo del BID, lo cual servirá para implementar los expedientes electrónicos, la digitalización jurisprudencial y la interrelación permanente entre las bases de datos, para que en últimas la justicia sea más oportuna en la toma de decisiones (Fedesarrollo, 2020).

 

Como se ha evidenciado, la inteligencia artificial está ocupando paulatinamente funciones jurídicas que históricamente habían sido ejercidas exclusivamente por operadores del derecho y sobre las que se hacía impensable que fueran ejercidas por una máquina o un sistema tecnológico. No obstante, en el afán de cumplir tales objetivos, surgen cuestionamientos sobre el respeto por las garantías procesales que ostentan los usuarios de dichos sistemas.

 

Así, surgen tanto preguntas generales para estos sistemas, con preocupaciones sobre la objetividad de las decisiones tomadas, las cuales tienen fuertes implicaciones en los bienes jurídicos de las personas, como pueden ser la libertad en los procesos penales, la propiedad en los procesos civiles, la presunción de inocencia y el buen nombre en los procesos sancionatorios.

 

En este sentido, se deja sobre el debate la preocupación que con sistemas como los descritos se reflejen prejuicios humanos que conduzcan a malas interpretaciones de los documentos jurídicos analizados o de los insumos que toman los sistemas para apoyar la construcción de decisiones judiciales. Asimismo, surgen preocupaciones por la opacidad de los sistemas, lo que se traduce, entre otras, en el desconocimiento que el destinatario tenga sobre las condiciones previas, los criterios y los aspectos procesales de la decisión algorítmica (Rodríguez, 2019). Los criterios sobre los cuales se fundamentan las decisiones, a menudo son desconocidos, y el diseño del proceso subyacente es opaco, así, la falta de transparencia exacerba la complejidad y la incertidumbre de la asignación de responsabilidad.

 

En síntesis, lo que aquí se pretende evidenciar es que la aplicación de la inteligencia artificial en las decisiones y procesos jurídicos, más allá de facilitar el trabajo humano y agilizar dichos procesos, representa una amenaza al debido proceso, derecho fundamental que debe ser garantizado en cualquier trámite administrativo o judicial y que se puede ver en riesgo al trasladar la competencia para tomar decisiones trascendentales sobre bienes jurídicos tutelados a sistemas de inteligencia artificial, que no deberían reemplazar por completo a los humanos, especialmente a los jueces.

 

  • Libertad de expresión

 

Como hasta ahora se ha señalado, los sistemas de inteligencia artificial son un reflejo de las realidades creadas por los humanos, lo que no es ajeno a aquellos escenarios de interacción, participación y debate en los que está de por medio la inteligencia artificial. En este sentido, hablar de libertad de expresión no es un asunto reservado a los periódicos, las revistas y los noticieros. También en escenarios digitales y de inteligencia artificial se hace latente la necesidad de asegurar la libertad de expresión para todas aquellas personas que interactúan en escenarios de este tipo.

 

De esta manera, no existe mundo virtual sin mundo real y entre ambos existe siempre un nexo causal, puesto que el mundo virtual es causado esencialmente por el mundo real, esto es, que el mundo virtual es el reflejo del real (Riofrío, 2014). Como parte de las similitudes entre ambos mundos, se debe señalar que los dos son espacios idóneos para la manifestación de diversas formas de expresión dentro de las que se incluye la libertad de acceso, la multiplicidad de formatos de información, la descentralización en la producción y consumo de información, la posibilidad de interacción de los usuarios en tiempo real y la neutralidad en cuanto al tipo de información compartida.

 

El mayor impacto de las nuevas tecnologías sobre el ejercicio del derecho a la libertad de expresión está en la forma en la que ha aumentado la capacidad de las personas de recibir, buscar y difundir información. La red permite la creación en colaboración y el intercambio de contenidos, y a su vez, ayuda a comunicarse, colaborar e intercambiar opiniones e información. De esta manera, la tecnología se ha convertido en una fuerza de democratización, transformando el derecho a la libertad de expresión mediante el establecimiento de nuevas capacidades para crear y editar contenidos, lo que genera nuevas formas de organización y movilización; y nuevas posibilidades para innovar y generar desarrollo económico, pero al tiempo crea restricciones a la interacción digital que antes no existían (Comisión Interamericana de Derechos Humanos, 2017).

 

Como evidencia de los riesgos aquí señalados, se expone a continuación un caso particular en el que, a partir del uso de inteligencia artificial, se pretende sustituir en un periódico, los periodistas por robots inteligentes que tienen la capacidad para escribir noticias en los portales digitales de los periódicos tradicionales. Heliograf es el nombre del sistema de inteligencia artificial utilizado por el reconocido periódico The Washington Post que desde el 2016 escribe noticias. En palabras de uno de los directivos del periódico, lo que se busca con este sistema es “quitarle de encima las tareas tediosas y mundanas a nuestros reporteros y permitirles que se enfoquen en historias mucho más interesantes y sofisticadas” (Oppenheimer, 2018).

 

El problema se evidencia cuando Heliograf produce las noticias de acuerdo a los intereses de cada lector y de acuerdo a sus necesidades. “Al tener los datos y las preferencias de los suscriptores a la edición digital del periódico, Heliograf escribirá cada artículo teniendo en cuenta no solo la ciudad o vecindario de cada consumidor de noticias, sino también su conocimiento del tema” (Oppenheimer, 2018). Esto supone entonces que por una programación de algoritmos, los espectadores no recibirán todas las noticias sobre un tema sino aquellas que se ajustan a sus intereses y preferencias, lo que atenta contra el derecho a la libertad de expresión y al acceso a información imparcial y objetiva.

 

El resultado de estas programaciones a través de la inteligencia artificial es que las noticias cada vez serán más personalizadas y micro direccionadas, con la recepción de artículos periodísticos cada vez más individualizados, desencadenando sociedades fragmentadas, lo que en palabras de Oppenheimer son “burbujas informativas”. El meollo del asunto radica en que la individualización de las noticias puede llevar a manipular políticamente a los espectadores, “porque los algoritmos de las plataformas como Google y Facebook están diseñados para satisfacer al consumidor, más que para cumplir una función cívica” (Oppenheimer, 2018).

 

En este sentido, lo que hacen estos sistemas de inteligencia artificial, lejos de informar y expresar libremente los hechos, es reforzar las preferencias políticas en vez de dar noticias desde diferentes ángulos para que puedan formar sus propias opiniones. “Si yo soy Facebook, mi misión no es la defensa de la democracia, mi misión es que entres en mi plataforma y mantenerte ahí la mayor cantidad de tiempo posible” (Oppenheimer, 2018).

 

Este, como muchos otros casos, evidencian la manera como la inteligencia artificial puede poner en riesgo o incluso vulnerar el derecho a la libertad de expresión y el derecho a estar informado, cuando en su uso se imponen restricciones injustificadas en la transmisión o recepción de información, se interfieren los medios de comunicación o se fragmenta la información recibida, creando sesgos en la comunicación.

2. El control humano como un nuevo derecho

Luego de exponer con suficiencia el problema que supone el uso de la inteligencia artificial para los derechos humanos, a continuación se propone el reconocimiento del control humano como un nuevo derecho, con el propósito de plantear respuestas jurídicas vanguardistas que den solución al problema planteado. En este sentido, en el presente apartado se expone el contenido, el objetivo y los elementos constitutivos del derecho al control humano.

 

El control humano se refiere a la capacidad de que intervengan seres humanos durante el ciclo de diseño del sistema y en el seguimiento de su funcionamiento. Así, se habla de control humano como la capacidad que tienen las personas para supervisar la actividad global de un sistema de inteligencia artificial desde el tratamiento de los datos y algoritmos, hasta su uso, y de decidir cómo y cuándo utilizar el sistema en una situación determinada, lo que puede incluir la decisión de no utilizar un sistema de inteligencia artificial en una situación particular, establecer niveles de discrecionalidad humana durante el uso del sistema o garantizar la posibilidad de ignorar una decisión adoptada por un sistema (Comisión Europea, 2018).

 

En este sentido, se debe entender por control humano el monitoreo constante a los sistemas de inteligencia artificial, bajo el supuesto que es dicha supervisión humana la que asegura la inclusión en tales sistemas de consideraciones basadas en valores (Telefónica, 2018). Lo anterior, significa que el propósito principal del control humano es evitar que la inteligencia artificial tenga algún impacto negativo en los derechos humanos de las personas que se ven impactadas por la misma (Telefónica, 2018), es decir, que el control humano puede facilitar la garantía de principios y valores, tales como la seguridad, la transparencia y capacidad de explicación, la justicia y no discriminación y, en general la promoción de los valores humanos.

 

El control humano requiere que los sistemas de inteligencia artificial estén diseñados e implementados con la capacidad de que las personas intervengan en sus acciones. De esta manera, el derecho al control humano se puede desagregar en las siguientes funciones, en aras de identificar a profundidad, lo que significa su contenido.

 

  1. Monitoreo en el diseño de los sistemas de inteligencia artificial

 

El control humano debe ser comprendido como un derecho transversal y aplicable a todo el proceso de desarrollo de los sistemas de inteligencia artificial, comprendiendo así, desde el diseño hasta el uso del sistema. Particularmente en este punto, se debe precisar que en el periodo de diseño del sistema el control humano asume un rol trascendental como veedor de dicho diseño, con el propósito de evitar que en la construcción del sistema de inteligencia artificial se tomen decisiones o se incluya información que puede vulnerar o por lo menos amenazar derechos humanos.

 

Lo anterior significa que el control humano entra en juego desde la selección de la información o datos que serán la fuente del sistema y, en la construcción de los algoritmos del mismo. Momentos que resultan fundamentales para seleccionar los datos que servirán de insumo para el desarrollo y uso de los sistemas de inteligencia artificial. En otras palabras, lo que aquí se propone es que en virtud del control humano se intervengan los sistemas de inteligencia artificial desde la estructuración de los mismos, con el objetivo que exista una veeduría humana que asegure la defensa y aplicación de los principios y valores que sostienen este derecho y hagan extensiva la protección de intereses jurídicamente tutelados a escenarios de inteligencia artificial. Así, el control humano en el diseño de los sistemas de inteligencia artificial se puede considerar como la presencia humana que tiene como propósito evitar cualquier acción u omisión en el diseño, de las que se derive la amenaza o vulneración de derechos humanos ya reconocidos en el ordenamiento jurídico.

 

  1. Disponibilidad humana

 

Si bien el momento del diseño de los sistemas de inteligencia artificial resulta ser clave en la prevención de riesgos y vulneraciones a los derechos humanos, en tanto es en este momento que se da la selección y tratamiento de datos y la construcción de los algoritmos del sistema, el control humano no se debe agotar en esta etapa. De esta manera, en virtud del derecho al control humano se debe asegurar que en todas las fases de los sistemas de inteligencia artificial, esto es, además del diseño, en el desarrollo, distribución y utilización de los sistemas de inteligencia artificial, exista la disponibilidad de una persona, para que en caso de que se requiera, revise e inspeccione el sistema de inteligencia artificial.

 

En otras palabras, lo que aquí se señala es que luego de la etapa de diseño de la inteligencia artificial todos los usuarios o personas que comprometen sus derechos por el desarrollo o usos de los sistemas de inteligencia artificial, deben tener la facultad de exigir una revisión humana, para lo que siempre se debe garantizar la supervisión de un equipo humano experto en el tema que logre verificar y en consecuencia advertir vulneraciones o amenazas como consecuencia de la inteligencia artificial.

 

iii.        Revisión humana de la decisión automatizada

 

Esta función representa la idea de que cuando se implementan los sistemas de inteligencia artificial para tomar decisiones, las mismas están sujetas a la posibilidad de que las personas puedan solicitar y recibir una revisión humana de estas. Tal principio, a diferencia de otros, siempre es ex post en su implementación, brindando la oportunidad de remediar un resultado objetable, con el propósito de que los humanos que interactúan con los sistemas de inteligencia artificial deben ser capaces de mantener una autodeterminación plena y efectiva sobre sí mismos. A diferencia de las funciones anteriores, lo que aquí se pretende con el control humano es que las personas que ejercen dicho control corrijan las vulneraciones que los sistemas de inteligencia artificial han producido. Esto pretende anunciar que el control humano no solo implica una tarea preventiva sino también correctiva, cuando aun siendo diligentes en la protección de derechos, se produjo una afectación a los mismos.

 

  1. Capacidad para optar por no tomar una decisión automatizada

 

Esta función se define como la oportunidad de brindar a los individuos la opción de no estar sujetos a los sistemas donde se implemente la inteligencia artificial. Para esto, es importante que los usuarios o beneficiarios de los sistemas de inteligencia artificial sean conscientes de cómo y cuándo se utiliza la inteligencia artificial para tomar decisiones sobre ellos, y qué implicaciones tendrán las mismas sobre sus vidas.

 

Bajo esta función, lo que se propone es que en virtud del control humano se exija la posibilidad de que los usuarios de los sistemas de inteligencia artificial sean informados sobre el momento y la manera como están sometidos a estos sistemas, al tiempo que puedan elegir si someterse o no a una decisión proveniente de un sistema de inteligencia artificial. Así, lo que se busca es que la autonomía del usuario se aumente y no se restrinja mediante el uso de herramientas y servicios de inteligencia artificial.

 

Para lograr dicho propósito, se debe informar al usuario en un lenguaje claro y comprensible sobre si las soluciones ofrecidas por las herramientas de inteligencia artificial son vinculantes y sobre las diferentes opciones disponibles. Situación que guarda estrecha relación con los principios de transparencia y explicabilidad que se deben asegurar en el desarrollo de la inteligencia artificial.

 

2.1 Valores y principios que rigen el derecho al control humano

 

Sobre los valores y principios que fundamentan el del derecho al control humano, lo primero que se debe señalar es que la literatura y documentos internacionales tanto públicos como privados son generosos y diversos en el señalamiento de principios y valores que debe considerar un marco ético de inteligencia artificial. En este sentido, a continuación se presenta una compilación de los principios y valores más relevantes y sobresalientes en lo concerniente a la inteligencia artificial en términos generales (Berkman Kelin Center, 2018), pero que terminan siendo condensados en el control humano, en atención a su carácter instrumental que facilita la defensa de otros principios en la inteligencia artificial.

 

  1. Intimidad

 

La intimidad es un principio destacado en la literatura internacional, cuando de inteligencia artificial se trata. Así, principios tales como el consentimiento, el control sobre el uso de datos, la capacidad de restringir el procesamiento de datos, el derecho a la rectificación, el derecho a borrar, la privacidad por diseño y la privacidad en general, se pueden sintetizan en la protección de la intimidad como un principio y objetivo final de la inteligencia artificial.

 

En este sentido, el control humano debe apuntar en todo momento a la protección de la intimidad de todas las personas que depositan sus datos personales para el desarrollo y uso de la inteligencia artificial, así como de todas las personas que se ven involucradas en tales sistemas, desde el diseño de los mismos, hasta las decisiones que estos arrojan.

 

  1. Responsabilidad

 

Detrás de este principio subyace la pregunta sobre quién será el responsable de las decisiones que ya no son tomadas por humanos, sino por sistemas de inteligencia artificial, así como cuestionamientos sobre quien asumirá los impactos de la tecnología sobre el mundo natural y social. De esta manera, el principio de responsabilidad abarca a su vez, elementos tales como la verificabilidad y replicabilidad de los sistemas de inteligencia artificial, para que los sistemas funcionen como deberían. En otras palabras, la necesidad de verificar que un sistema de inteligencia artificial pueda prevenir eficazmente la distorsión, la discriminación, la manipulación y otras formas de uso indebido.

 

Igualmente, la responsabilidad supone la evaluación, sobre los propósitos, objetivos, beneficios y riesgos de la inteligencia artificial, por lo que es importante que se pueda probar en un entorno controlado, en el que alguien siempre responda por las consecuencias adversas de tales sistemas. En consonancia con lo anterior, la responsabilidad también supone la necesidad de un organismo de monitoreo que requiere la creación y supervisión de la inteligencia artificial.

 

iii.        Seguridad

 

El principio de seguridad generalmente se refiere al funcionamiento interno y adecuado de un sistema de inteligencia artificial con el fin de evitar daños no deseados, lo que guarda una estrecha relación con el principio de confiabilidad, en tanto un sistema es confiable cuando es seguro, pues funciona como se espera sin comprometer ni vulnerar a terceros. En este sentido, sobre el principio de seguridad se debe señalar que supone la adopción de medidas que se deben tomar tanto antes como después de que se implementen los sistemas, esto es, a lo largo de su vida útil operativa, para evitar que ocasionen daños. Así, construir sistemas de manera segura significa evitar daños, para lo que se deben evaluar los riesgos.

 

Igualmente, el principio de seguridad se refiere a la capacidad de un sistema de inteligencia artificial para resistir amenazas externas, lo que supone a su vez la capacidad de probar la resistencia de los sistemas de inteligencia artificial para proteger otros derechos como la privacidad e integridad de los usuarios. Finalmente, la seguridad guarda relación con la previsibilidad que hace alusión a la planificación del sistema y coherencia con las entradas y salidas de información del mismo. En palabras de la estrategia alemana, los sistemas de inteligencia artificial transparentes, predecibles y verificables pueden prevenir efectivamente la distorsión, discriminación y manipulación de información.

 

  1. Transparencia y capacidad de explicación

 

El principio de transparencia es la afirmación de que los sistemas de inteligencia artificial deben diseñarse e implementarse de tal manera que sea posible la supervisión de sus operaciones, lo que hace alusión a la transparencia en los daños, los modelos y el sistema en general de la inteligencia artificial. La transparencia a lo largo del ciclo de vida de un sistema significa la apertura en los procesos de diseño, desarrollo e implementación de los mismos, para lo que se sugiere la creación de estándares que describan niveles de transparencia medibles y comprobables, de modo que los sistemas puedan ser evaluados objetivamente y los niveles de cumplimiento sean determinados.

 

Por su parte, el principio de explicabilidad se basa en la traducción de técnicas, conceptos y resultados de decisiones en formatos intangibles, en un lenguaje comprensible y adecuado para las personas. En este sentido, la explicabilidad está ligada con el derecho a la información, esto es, con el derecho de las personas a conocer los diversos aspectos del uso de los sistemas de inteligencia artificial, lo que puede incluir acceso a factores, lógica y técnicas que produjeron el resultado de un sistema de inteligencia artificial, y en general, cómo la decisión automatizada se alcanza en los procesos de fabricación.

 

  1. Justicia y no discriminación

 

Este principio hace referencia a la obligación que todos los actores, públicos y privados, tienen de prevenir y mitigar los riesgos de discriminación en el diseño, desarrollo y aplicación de sistemas de inteligencia artificial. Igualmente, se refiere a que debe asegurarse que existan mecanismos que permitan el acceso a una solución efectiva a decisiones discriminatorias antes de la implementación y durante todo el ciclo de vida del sistema.

 

De manera particular sobre el principio de justicia, cabe señalar que este se ha definido como el tratamiento equitativo e imparcial de los interesados por los sistemas de inteligencia artificial. Supone entonces que los sistemas de inteligencia artificial deben tratar a todas las personas de manera justa, al tiempo que deben desarrollar técnicas analíticas para detectar y abordar posibles injusticias, como métodos que sistemáticamente evalúan los datos para garantizar una representatividad social adecuada y documentar la información para identificar sus orígenes y características.

 

En lo concerniente al principio de igualdad, este representa la idea de que las personas así estén o no en posiciones similares, merecen las mismas oportunidades y protecciones en relación a las tecnologías de inteligencia artificial. Pero, a diferencia del principio anterior, la igualdad va más allá de la justicia, en tanto la primera implica que las mismas reglas deben aplicarse para que todos tengan acceso a la información, los datos, el conocimiento, los mercados y una distribución justa del valor agregado generado por las tecnologías de inteligencia artificial.

 

  1. Promoción de valores humanos

 

De manera general, la promoción de los valores humanos es un elemento clave en la ética de la inteligencia artificial. Sobre este principio, se definen los objetivos a los que debe apuntar la inteligencia artificial y los medios que debe implementar para cumplirlos, los cuales deben corresponder y estar fuertemente influenciados por la promoción de los valores humanos. Lo anterior, bajo la premisa de que a medida que el uso de la inteligencia artificial se vuelve más frecuente y el poder de la tecnología aumenta, la imposición de prioridades y juicios humanos sobre la inteligencia artificial es especialmente crucial.

 

En este sentido, el principio en cuestión se puede definir como el desarrollo y uso de la inteligencia artificial con referencia a las normas sociales imperantes, las creencias culturales y los mejores intereses de la humanidad, en otras palabras, que la inteligencia artificial debería servir al progreso de la civilización humana. Así, lo que aquí se señala es que este, como un principio central recoge la necesidad que la inteligencia artificial sea aprovechada para beneficiar a la sociedad en respeto de valores humanos tales como la dignidad, la libertad, la justicia, la igualdad, la solidaridad, y el respeto por estructuras sociales como la democracia y el Estado Social de Derecho y, al servicio de ideales éticos ampliamente compartidos para el beneficio de toda la humanidad, en lugar de un Estado y organización (Future of Life Institute, 2017)

3. Conclusiones

La inteligencia artificial es, sin lugar a dudas, un avance tecnológico significativo para la humanidad, al tiempo que se convierte en un reto para las ciencias, y ahora para el Derecho. Es por esto, que un análisis integral del fenómeno supone indagar por los riesgos que este representa, como lo es la vulneración de derechos humanos y luego, las diferentes respuestas que desde el Derecho se ha ofrecido para ocuparse del problema.

 

En este sentido, respecto al reconocimiento del control humano como un nuevo derecho se puede concluir que este se entiende como la capacidad de que intervengan seres humanos durante el ciclo de diseño del sistema de inteligencia artificial y en el seguimiento de su funcionamiento, con el fin de evitar un impacto negativo en los derechos humanos. Esto, en articulación con el propósito de facilitar el cumplimiento de objetivos tales como seguridad, protección, transparencia, capacidad de explicación, justicia, no discriminación y, en general, la promoción de valores humanos dentro de los sistemas de inteligencia artificial (The Public Voice Coalition, 2018).

 

El control humano comprende la supervisión, participación, revisión y determinación humana, es decir, que los sistemas permanezcan siempre bajo el control humano, incluso de manera ex post con la revisión de las decisiones que dichos sistemas determinen, siempre impulsados por consideraciones basadas en valores (The Public Voice Coalition, 2018). Lo anterior, encuentra justificación en el objetivo del control humano que es, mantener a los sistemas de inteligencia artificial bajo supervisión humana para evitar la generación de un impacto negativo sobre los derechos humanos, siendo una garantía para lograr una sociedad inclusiva, segura, confiable e innovadora aún en escenarios artificiales.

 

En suma, la inteligencia artificial representa un reto para el Derecho y para la sociedad en general, por lo que el reconocimiento del control humano como un nuevo derecho es la apuesta que desde la presente investigación se ofrece al problema que supone la vulneración de derechos humanos por el uso de la inteligencia artificial. Problema que motivó la presente investigación y que abre la puerta a futuras vetas de investigación, relacionadas con los desafíos que las nuevas tecnologías representan para el desarrollo global.

Referencias

Batista, N. (2019). La toma de decisiones en la informática jurídica basado en el uso de los sistemas expertos. Revista Investigacion Operacional, 131-139.

Berkman Kelin Center. (2018). Artificial Intelligence & Human Rights:. Harvard University, 1-63.

Comisión Interamericana de Derechos Humanos. (2017). Estándares para una internet libre, abierta e incluyente. Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humano.

Executive Office of the President. (2016). Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights. Washington: The Withe House.

Farage, B. (2018). INTELIGÊNCIA ARTIFICIAL NO DIREITO – UMA REALIDADE A SER DESBRAVADA. Revista de Direito, Governança e Novas Tecnologias, 01-16.

Fedesarrollo. (2020). Modernización de la administración de justicia través de la inteligencia artificial. Bogotá: Centro de Investigación Económica y Social.

Future of Life Institute, ‘Asilomar AI Principles’ (2017) https://futureoflife.org/ai-principles/?cn-reloaded=1

García, A. (2017). Inteligencia Artificial Fundamentos, práctica y aplicaciones. Alfaomega RC Libros.

MCGINNIS, John O.; PEARCE, Russell G.. The Great Disruption: How Machine Intelligence Will Transform the Role of Lawyers in the Delivery of Legal Services. 82 Fordham Law Review 3041: Northwestern Public Law Research Paper, New York, v. 17, n. 14, p.1-26, 15 maio 2014.

Newman, V., & Ángel, M. (2019). Rendición de cuentas de Google y otros negocios en Colombia. Bogotá: Dejusticia

Oliver, N. (2018). Inteligencia artificial: Ficción, realidad y sueños. Madrid: Real Academía de Ingeniería.

Oppenheimer, A. (2018). ¡Sálvese quien pueda! Bogotá: Nomos.

Parlamento Europeo. (2016). REGLAMENTO (UE) 2016/679 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos. Bruselas: Parlamento Europeo.

Riofrío, J. (2014). La cuarta ola de Derechos Humanos: los derechos digitales. Revista Lationoamericana de Derechos Humanos, 15-45.

Rodriguez, t. (2019). Legal challenges of artificial intelligence: modelling the disruptive features of emerging technologies and assessing their possible legal impact. Unif. L. Rev, 302-314.

Santos, M. (2017). Regulación legal de la robótica y la inteligencia artificial: retos del futuro. Revista Jurídica de la Universidad de León, 25-50.

Telefónica, ‘AI Principles of Telefónica’ (2018) https://www.telefonica.com/en/web/responsible-business/our-commitments/ai-principles

The Public Voice Coalition, ‘Universal Guidelines for Artificial Intelligence’ (2018) <https://thepublicvoice.org/ai-universal-guidelines