Introducción

Actualmente, la inteligencia artificial (AI por sus siglas en inglés), es uno de los temas más sonados y de los que más se está hablando en diferentes industrias y sectores, tanto por su aplicabilidad en múltiples tareas que ejecutan hoy los seres humanos, como por sus riesgos y posibles consecuencias a futuro si no se regula adecuadamente y si no se establecen límites y reglas con respecto a su uso, criterios para su desarrollo y se establecen responsabilidades.

La inteligencia artificial se refiere a la inteligencia de las máquinas, es decir, a las máquinas que piensan como humanos realizando tareas de razonamiento, planificación, aprendizaje y entendimiento del lenguaje.

Se ha considerado a la inteligencia artificial como una rama de la computación en la que se relaciona un fenómeno natural, propio de los seres humanos, con una analogía artificial a través de programas de computación.

Los inicios de la inteligencia artificial datan de hace más de 50 años. Podríamos afirmar que sus orígenes más cercanos son de la década de 1950 cuando Alan Turing, considerado como el padre de la computación, publicó un artículo llamado Computing machinery and intelligence en donde argumentaba que, si una máquina podía actuar como un humano, entonces es posible decir que sea inteligente, y para ello proponía el Test de Turing.

Si bien han pasado muchos años desde su formulación, el Test de Turing aún reviste gran importancia, pues exige a las máquinas una serie de capacidades para ser considerada inteligente, que a grandes rasgos conforma lo que hoy es la inteligencia artificial.

Sin embargo, el término inteligencia artificial solo se acuñó hasta 1956 en la conferencia de Dartmounth, en donde se reunieron los mejores investigadores del campo y dieron lugar así a la moderna inteligencia artificial, dándole el carácter de ciencia a esta disciplina.

Así, podemos ver que la inteligencia artificial no es algo nuevo, sin embargo, es algo que ha venido teniendo cada vez más relevancia por sus desarrollos inminentes en diversos sectores como el automotor, el asegurador, el financiero, el de la salud, el comercio electrónico, el de logística, entre otros.

Además, los desarrollos recientes han demostrado el potencial de la inteligencia artificial para reemplazar un número significativo de tareas que hoy en día realizan los seres humanos, así como para ser más eficientes, realizar menos tareas repetitivas y mejorar la experiencia con los clientes, y en tal sentido, es un tema que está en la mira de diferentes industrias, y que debería estar en la de los reguladores alrededor del mundo, especialmente por las amenazas que puede representar, esto es, su vulnerabilidad a ciberataques, fallos técnicos que lleven a interrupciones inesperadas y pérdidas financieras a gran escala. No sin olvidar los diferentes escenarios de responsabilidad en los que pueden versen inmersos las empresas al dejar la toma de decisiones en manos de sistemas de inteligencia artificial.

En primer lugar, en el presente texto realizaremos un acercamiento a los incipientes intentos de regulación que se han venido presentado en el mundo con relación a la inteligencia artificial. La regulación es realmente primitiva y no hay aún normas definitivas a concluyentes en la materia, no obstante, las conversaciones o discusiones que se han venido dando sobre dicha tecnología pueden ser ilustrativas, indicándonos los temas principales a regular sobre la materia, y las tendencias o posiciones que va a ir adoptando. Luego, realizaremos un acercamiento al impacto que la inteligencia artificial ha tenido o puede tener en el sector asegurador, y la importancia que reviste que el sector esté a la vanguardia de los avances en inteligencia artificial. Finalmente, esbozaremos algunas conclusiones sobre la materia.

Regulación

Si bien se viene hablando de inteligencia artificial desde hace muchos años, la regulación en el tema aún es incipiente y tiene muchos retos por delante. Algunos países ya están empezando a hablar sobre la necesidad de regular la materia, sin embargo, son pocos los que tienen ya algún borrador o norma sobre la misma.

La regulación de la inteligencia artificial en los últimos años ha sido impulsada principalmente por las declaraciones de Elon Musk sobre la importancia de reglamentar la materia “antes de que sea demasiado tarde”, pues considera que la inteligencia artificial representa una amenaza para los seres humanos. En tal sentido, Musk cree que es importante que de forma proactiva se establezcan reglas claras sobre la materia, para evitar que la regulación sea reactiva cuando ya sea demasiado tarde.

Elon Musk, CEO de Tesla y de Space X, ha instado en varias ocasiones a los gobernadores de Estados Unidos para que regulen la materia pues, como se dijo, sostiene que es importante que la inteligencia artificial se reglamente de manera temprana, y para ello sugiere que se aprenda y conozca cada vez más sobre dicha tecnología para que los reguladores puedan establecer reglas útiles que pongan límites y criterios claros al desarrollo de esta tecnología para así evitar poner en peligro la subsistencia de la raza humana, pues, tal y como afirma Musk, la inteligencia artificial puede ser aún más peligrosa que las armas nucleares.

Sin embargo, la posición de Musk frente al tema es fatalista y hay muchos otros que consideran que las perspectivas no son tan caóticas o negativas. No obstante, sostienen que es importante que se establezcan reglas claras sobre la materia para evitar malos usos y consecuencias negativas derivadas del uso de la inteligencia artificial. En tal sentido, Oren Etzioni, director del Instituto Allen para la Inteligencia Artificial, propone tres reglas para los sistemas de inteligencia artificial, basado en las tres reglas de la robótica, propuestas por Isaac Asimov en 1942. Así, Etzioni propone:

  1. Un sistema de inteligencia artificial debe someterse al amplio espectro de leyes a las que se somete su operador humano.

    En este sentido, Etzioni sostiene que es importante que los sistemas de inteligencia artificial se sometan a las leyes vigentes, por ejemplo, los vehículos autónomos deberán respetar los semáforos y las señales de tránsito, y el FBI no podrá hacer uso de inteligencia artificial para engañar a las personas para que cometan delitos. Igualmente sostiene que deben modificarse las normas penales a fin de que no pueda argumentarse, para no ser responsable, que el sistema de inteligencia artificial hizo algo que no era posible anticipar ni comprender. En definitiva, Etzioni sostiene que, no debería excusar a nadie de cometer actos ilícitos, sostener que “no fui yo, fue mi sistema de inteligencia artificial”.

  2. Un sistema de inteligencia artificial debe exponer con claridad que no es humano.

    Sobre este punto, Etzioni afirma que es importante que los sistemas de inteligencia artificial tengan una etiqueta que los identifique como tal, como garantía para la sociedad, con el fin de que las personas puedan identificar cuando un sistema de inteligencia artificial intenta suplantar a alguien o simplemente, identificar cuando se está interactuando con un sistema de inteligencia artificial y no con otro ser humano.

  3. Un sistema de inteligencia artificial no puede guardar ni difundir información confidencial sin la aprobación explícita de la fuente.

    Etzioni explica que, los sistemas están en gran capacidad de extraer información confidencial debido a su capacidad de extraer volúmenes importantes de información, registrarla y analizarla. En tal sentido, los datos confidenciales a los que pueda tener acceso deben ser debidamente custodiados y no deben poder ser usados con fines diferentes a los autorizados por el usuario del sistema de inteligencia artificial.

Podríamos decir entonces que las anteriores reglas son una base para los reguladores en el mundo, que permiten orientar las normas en tal sentido y así evitar que se materialicen consecuencias negativas del uso de la inteligencia artificial por hacer un mal uso de la misma. Sin embargo, Etzioni reconoce que, si bien sus reglas son sólidas, aún no están completas.

En definitiva, estemos o no de acuerdo con las consecuencias de la inteligencia artificial, estos sistemas son una realidad y la sociedad debe prepararse para para ello.

Unión Europea

En ese sentido, la Unión Europea ha empezado a hablar del tema y ha dado los primeros pasos para regular la materia. En 2017, el Parlamento Europeo publicó el Reglamento Europeo Recomendaciones a la Comisión sobre normas de derecho civil sobre robótica , siendo éste el primer paso que da el regulador europeo para establecer normas sobre la materia. El mencionado reglamento contiene recomendaciones de regulación por parte del Parlamento Europeo a la Comisión Europea y en tal sentido, no son normas definitivas pues tienen que pasar por el filtro de la Comisión a fin de que sean aprobadas y constituyan regulación vigente. Sin embargo, tales normas nos proporcionan una idea del camino que tomará el legislador europeo sobre la materia.

El Parlamento Europeo insta a la Comisión Europea a regular el ámbito de la inteligencia artificial, con el fin de aprovechar el potencial económico e igualmente garantizar niveles de seguridad equiparables en toda la Unión Europea. Así, en el referido Reglamento se habla de la necesidad de fijar normas sobre responsabilidad y las consecuencias para el empleo, además se refiere a la necesidad de establecer un código de ética y una nueva agencia europea de robótica.

En cuanto a la determinación de la responsabilidad, el Parlamento considera primordial que se clarifiquen y establezcan reglas para ello, especialmente para los vehículos autónomos. Además, considera que la determinación de la responsabilidad civil por daños y perjuicios causados por robots es fundamental, y que independientemente del instrumento jurídico que se escoja para establecer la responsabilidad y resarcir los perjuicios patrimoniales, no debe limitarse el tipo o alcance de los daños o perjuicios que puedan ser objeto de compensación, ni tampoco limitarse la naturaleza de la misma, por el solo hecho de que tales daños y perjuicios hayan sido causados por un agente ajeno a la raza humana.

Una de las posibles soluciones que plantea el Parlamento Europeo para la indemnización de daños y perjuicios que puedan causarse con sistemas de inteligencia artificial, es el establecimiento de un seguro obligatorio que debe tener en cuenta todas las responsabilidades potenciales de la cadena, esto es, fallos mecánicos, de programación, las actuaciones humanas, entre otros. Sin embargo, el Parlamento considera que el sistema de aseguramiento obligatorio puede complementarse con otros seguros que cubran lo que exceda la cobertura del seguro obligatorio, y en tal sentido insta a la industria aseguradora para que desarrolle nuevos productos y soluciones que se adapten a los avances y progresos en el ámbito de la robótica y de la inteligencia artificial.

En este orden de ideas, también se plantea a la posibilidad de crear una personalidad jurídica para los robots, con derechos y obligaciones específicas, de tal modo que, al menos los robots o sistemas de inteligencia artificial más autónomos y complejos, puedan ser considerados personas electrónicas y en ese sentido, puedan ser responsables de los daños o perjuicios que causen.

Adicionalmente, el Reglamento se refiere a las consecuencias que el rápido desarrollo y progreso de la robótica y la inteligencia artificial, puedan tener en el ámbito laboral. En primer lugar, el Parlamento habla de la necesidad de fortalecer las competencias digitales de los ciudadanos europeos, independientemente de su formación, para así tener una mejor adaptación de la oferta y la demanda en el mercado laboral.

A su vez, el Parlamento insta a la Comisión Europea para que analice los diferentes escenarios que pueden presentarse con el desarrollo de la robótica y de la inteligencia artificial, y sus consecuencias, para la viabilidad de los sistemas de seguridad social de los diferentes Estados miembros.

Por su parte, con relación al código ético, el Parlamento llama la atención sobre el potencial de empoderamiento que trae el uso de la robótica y la inteligencia artificial, escenario que se ve matizado por las tensiones y posibles riesgos que pueden presentarse y por lo tanto asegura que deben ser evaluados a la luz de la seguridad, salud, libertad, intimidad, integridad, autodeterminación, no discriminación, protección de datos personales, entre otros.

Por ello asegura que debe establecerse un marco ético claro y estricto que oriente el desarrollo, diseño, producción, uso y modificación de los robots y sistemas de inteligencia artificial, específicamente, debe crearse un código de conducta para los ingenieros y un código deontológico para los comités de ética para la revisión de los protocolos y licencias tipo para diseñadores y usuarios de robótica y sistemas de inteligencia artificial.

A su vez, el Parlamento sugiere la creación de una agencia europea de robótica e inteligencia artificial con la finalidad de poder ofrecer información y conocimiento especializado sobre el tema, además de asesoramiento técnico y ético en dicha tecnología, a las diferentes autoridades europeas.

En definitiva, podemos sostener que el Reglamento en cuestión establece algunos principios sobre la regulación en robótica e inteligencia artificial, a saber:

  1. Proteger a los seres humanos de los daños causados por robots.

    Es fundamental proteger a los humanos de los daños causados por los robots o por los sistemas de inteligencia artificial, y en tal sentido, es que se propone la creación de un sistema de responsabilidad con el fin de establecer los criterios de resarcimiento de los daños y perjuicios que puedan ocasionarse por medio dicha tecnología.

    La dignidad humana sirve como base para la robo-ética, y por ello es la fuente de todos los principios que permiten que los seres humanos estén protegidos contra el daño infligido a una persona por un robot o sistema de inteligencia artificial.

    Se hace crucial entonces, como se dijo, que se establezcan criterios de responsabilidad claros en los casos en los que los sistemas de inteligencia artificial causen daños y perjuicios, pues si bien no son daños ocasionados por un ser humano, ello no significa que puedan quedar impunes y que no deban ser resarcidos. Los legisladores deberán adoptar entonces una posición sobre el tema, en el sentido de determinar si se tratará de una responsabilidad subjetiva u objetiva, y en esa medida, deberá determinar cuál o cuáles agentes de la cadena que participan en la construcción, elaboración y fabricación de sistemas de inteligencia artificial, deben responder ante los daños y perjuicios que ocasionen.

  2. Respetar el rechazo de la atención por parte del robot.

    En concordancia con el principio anterior, establece el derecho que tienen las personas a negarse a ser cuidado por un robot o por un sistema de inteligencia artificial. El principio se refiere a cuando una persona, a pesar de no ser dañada, ni encontrarse en peligro ante un robot o un sistema de inteligencia artificial, se siente profundamente incómoda con su presencia, especialmente en situaciones donde tales sistemas se usan para asistencia de personas, como es el caso de los robots que dan de comer a personas discapacitadas o adultos mayores.

    En este sentido, y atado a este principio encontramos dos reglas. La primera es que tiene que ser aceptado que la persona se oponga abiertamente a ser cuidada o asistida por un robot o sistema de inteligencia artificial, incluso cuando comprenden que no van a sufrir ningún daño por parte del mismo, por la sencilla razón de que, si no se acepta la negativa de la persona, se le estaría violando su dignidad. Y la segunda regla consiste en obtener el consentimiento del paciente cuando un robot o sistema de inteligencia artificial va a administrar la atención médica.

  3. Proteger la libertad humana frente a los robots.Este principio robo-ético exige el respeto de la libertad humana cuando se usan robots o sistemas de inteligencia artificial. Algunos de estos sistemas cuando son autónomos pueden pisotear las libertades humanas refugiados en la idea de proteger a una persona, lo que lleva a que se presente un choque entre ciertos derechos básicos del ser humano, como son la libertad, la salud, la seguridad de las personas, entre otros . Sin embargo, la libertad humana está protegida en Europa y por lo tanto debería primar la libertad humana sobre las decisiones autónomas de un sistema de inteligencia artificial.No obstante, el texto no resuelve completamente los problemas que se presentan cuando se infringen ciertas libertades humanas por parte de robots o sistemas de inteligencia artificial, y en este sentido toma relevancia establecer un verdadero principio robo-ético. Así, el principio general debe ser que un robot o sistema de inteligencia artificial tiene que respetar la autonomía en la toma de decisiones de una persona, esto es, que el ser humano debe estar en la capacidad de obligar a un robot a obedecer sus órdenes, y no al contrario. Sin embargo, este principio podría presentar ciertos riesgos, especialmente en temas de seguridad, y por lo tanto debería estar vinculado a una serie de precauciones preliminares, a saber: cuando la orden recibida por parte del humano pueda poner en peligro al usuario o a terceros, el robot o sistema de inteligencia artificial debería emitir una alerta de riesgo que la persona pueda comprender; y en igual sentido, el robot o sistema de inteligencia artificial debería poder vetar absolutamente la orden cuando implique poner en peligro a terceros, evitando así que un robot o sistema de inteligencia artificial pueda ser usado como un arma.
  4. Proteger a la humanidad contra las violaciones de la privacidad cometidas por un robot.Tal y como se deduce, este principio busca proteger a las personas de cualquier violación a su privacidad por parte de un robot o sistema de inteligencia artificial, pues si bien el beneficiado de la violación sería la persona detrás del sistema, y no el propio robot, es importante que se cuide el derecho a la privacidad de los usuarios y terceros que exponen su información personal a través del robot o sistema de inteligencia artificial. Para ello, es necesario que se establezca el principio robo-ético que aclare el grado de protección de tal información y la consecuencia o castigo previsto ante una violación del derecho a la privacidad, y además se considere la posibilidad de requerir el consentimiento del sujeto con derecho a la privacidad.Sin embargo, es necesario encontrar un equilibrio entre los intereses en juego, sopesando las ventajas que suponen los robots o sistemas de inteligencia artificial autónomos y los riesgos que pueden representar para la privacidad de las personas, y por ello se hace necesario establecer un protocolo que permita que la parte interesada tenga el control cuando permite que un tercero ingrese en su esfera privada.
  5. Gestión de datos personales procesados por robots.Este principio cobra gran importancia ante el interrogante que suponen los datos en la robótica y la inteligencia artificial, pues los mismos pueden recopilar gran cantidad de información y datos a través de sus diferentes sensores. Pero, adicional a esto, los robots y sistemas de inteligencia artificial tienen capacidades de comunicación e interacción que les permiten intercambiar datos con otros humanos o entre ellos, comunicación que puede ser imperceptible para los humanos.Así, los datos recopilados por los robots o sistemas de inteligencia artificial pueden ser de todo tipo, desde datos personales, hasta datos técnicos (por ejemplo, sobre cálculos de coordenadas espaciales). En este sentido, la gestión de los datos, especialmente los personales, por parte de robots o sistemas de inteligencia artificial es crucial, y debe suponer que el titular de los datos pueda decidir sobre los mismos y que deban fijarse reglas rigurosas sobre el consentimiento de las personas. Finalmente, debe tenerse en cuenta la importancia que toma la protección de tales datos contra piratas informáticos.
  6. Proteger a la humanidad contra el riesgo de manipulación de robots.Los robots o sistemas de inteligencia artificial pueden dejar una impresión muy real en los seres humanos y en tal sentido pueden incitar al miedo o, por el contrario, fascinar. El miedo puede representar problemas, especialmente con robots o sistemas de inteligencia artificial asistenciales o de entretenimiento, y por ello se han desarrollado diversas técnicas para generar emociones humanas en los mismos, a fin de facilitar la interacción entre las personas y los sistemas. Sin embargo, las emociones que muestran los robots o sistemas de inteligencia artificial son falsas pues son completamente fingidas, y sin emargo nos enfrentamos al riesgo de la empatía artificial, es decir, el riesgo de que una persona desarrolle el mismo tipo de vínculo que con otro ser humano.En este sentido, un principio que proteja a las personas de ser manipuladas por robots o sistemas de inteligencia artificial evitaría que los más vulnerables (niños, enfermos, ancianos y discapacitados) vean a los sistemas y máquinas como personas, lo que llevaría a desafíos sin precedentes, surgiendo desafíos legales y éticos que deben enfrentarse y resolverse.
  7. Evitar la disolución de los vínculos sociales.Los sistemas de inteligencia artificial o robots autónomos ofrecen soluciones a los problemas relacionados con el envejecimiento de la población, por lo que los servicios de salud pública pueden ahorrar algunos costos pues esta población ya no necesitaría ir a un hogar de atención u hospital. A su vez, los robots pueden ayudar al personal de atención con sus tareas, no obstante, pueden presentarse algunos problemas éticos al reemplazar completamente al ayudante humano, pues puede terminar aislando a los usuarios de los demás seres humanos.En este sentido, debe establecerse un principio que garantice que la presencia de un robot no disuelva los vínculos sociales, lo que podría dividirse en dos reglas. En primer lugar, un robot o sistema de inteligencia artificial debe actuar como un agente que ayude a las personas a ser más independientes y autónomas; y en segundo lugar, el robot o sistema de inteligencia artificial no puede sustituir a los seres humanos por completo.
  8. Igualdad de acceso al progreso en robótica.Este principio busca garantizar el acceso equitativo a los robots y sistemas de inteligencia artificial. Frente a los usuarios no profesionales, la división de la robótica podría surgir principalmente debido al costo prohibitivo de los robots que los hace inaccesibles. Por ello, el acceso a los beneficios tecnológicos debe estar abierto a todos, y deben buscarse mecanismos para garantizar el acceso equitativo a los robots o sistemas de inteligencia artificial. En este sentido, debería extenderse este principio a todos los usuarios a través de soluciones de financiación adaptadas a cada sector, por ejemplo, el asistencial, el educativo, etc.A su vez, con relación a los usuarios profesionales, las dificultades de acceso a estas tecnologías pueden ser por falta de confianza o conocimiento de la misma, o por un déficit financiero. Por lo tanto, con la finalidad de promover el desarrollo de la robótica y la inteligencia artificial, deben implementarse políticas relevantes, como incentivos fiscales, para que las industrias y los profesionales de todos los sectores puedan tener acceso a los beneficios de esta tecnología.
  9. Restringir el acceso humano a las tecnologías de mejora.En principio, pareciera una contradicción promover el acceso a la robótica y la inteligencia artificial y luego restringir el acceso, sin embargo, se refiere solo a las tecnologías de mejora pues en última instancia la humanidad no buscará simplemente arreglar defectos o daños (por ejemplo, prótesis), sino que también buscará mejorarse a sí misma, buscando obtener características físicas y/o mentales que superen las capacidades humanas estándar (transhumanismo  y posthumanismo ), lo que llevaría a que los humanos en su forma actual sean olvidados, obligándolos a mejorar o a desaparecer, y en tal sentido se hace necesario establecer un principio que frente tales extremos.

Así como la Unión Europea ya ha empezado a preocuparse por regular aspectos de la inteligencia artificial, las demás potencias del mundo también han venido creando grupos de trabajo conjuntos para analizar asuntos como: evaluar los aspectos éticos, el impacto potencial sobre la economía y el desarrollo de nuevas habilidades relacionadas con la inteligencia artificial . Así, países como Estados Unidos, Canadá, Rusia, y los países de la Unión Europea , han empezado a hablar sobre la importancia de regular oportunamente los asuntos sobre inteligencia artificial, y hacerlo de forma conjunta.

Es así como, en la Cumbre del Gobierno Mundial llevada a cabo de Dubái en febrero de 2018, líderes de varios países, organizaciones internacionales como la ONU y la OCDE, y empresas como Microsoft, Facebook e IBM Watson, se reunieron para hablar sobre una regulación global de la inteligencia artificial . A pesar de las diferencias entre los participantes, pudieron llegar a dos puntos en común: i) debe incentivarse la investigación en las áreas que reportan mayor beneficio y menor riesgo para la humanidad; y ii) debe invertirse en investigación y desarrollo de la inteligencia artificial, pues en la medida en que los Estados mantengan el ritmo de las empresas, estarán en una mejor posición para anticipar y prever cualquier problema que pueda avecinarse.

El consenso está también orientado a la importancia y necesidad de que sea una regulación global y conjunta, en virtud de que el pasado ha demostrado que no puede obstaculizarse el progreso científico ni tecnológico, pues lo que se prohíbe o regula en exceso encuentra siempre una forma de operar, bien sea donde haya normas más flexibles o donde no exista regulación sobre la materia. Por ello la importancia y relevancia de que la regulación en materia de inteligencia artificial sea global y, en la medida de lo posible, lo más estándar que se pueda , ya que no puede realizarse de manera aislada por país o región porque no tendría ningún sentido, y por lo tanto es necesaria la cooperación entre los gobiernos y los actores privados para así potencializar las oportunidades y mitigar los riesgos.

No obstante, cualquier regulación que pretenda realizarse sobre los sistemas de inteligencia artificial debería basarse en los principios de mejor regulación, a fin de que pueda garantizarse una regulación de calidad. Así, cualquier regulación sobre tal tecnología debería fundamentarse en tres pilares fundamentales, a saber:

  1. Principios de mejor regulación.

    La calidad de la regulación podría medirse a partir de los siguientes principios básicos:

    1. Proporcionalidad: como su nombre lo indica, las medidas que se adopten deberán guardar proporción y correspondencia con el tema que se pretende regular, esto es, las normas sobre inteligencia artificial deberán guardar correspondencia con el estado actual y las perspectivas de desarrollo y evolución de la tecnología.
    2. Responsabilidad: para que pueda garantizarse una regulación de calidad, los reguladores deben someter sus decisiones al escrutinio público a fin de que puedan ser debatidas y puedan justificarlas.
    3. Coherencia con el resto del ordenamiento jurídico: es importante que el regulador revise que las normas o reglas sobre un tema no tengan tratamientos duplicados o diferentes en materias semejantes, y que por lo tanto puedan guardar coherencia con el ordenamiento jurídico en su conjunto.
    4. Orientación: es importante que las normas estén orientadas específicamente a las situaciones problemáticas que puedan presentarse en el tema a regular. Además, la regulación debe evitar minimizar los efectos colaterales, especialmente, mediante la determinación adecuada del ámbito de aplicación subjetivo.
    5. Simplificación: es importante lograr la simplificación de la regulación y en este sentido debe evitarse a toda costa la dispersión normativa, procediendo a la racionalización del marco regulador a través de normas por materia. Adicionalmente, la simplificación se refiere a evitar y suprimir trámites innecesarios, a fin de que los trámites sean más simples y sencillos.
  2. Valoración de impactos. En el proceso regulatorio se torna fundamental el análisis de costo-beneficio en el que se analice el impacto de la norma en los presupuestos generales del Estado; el impacto en las políticas de género; y el impacto económico previsible para el sector objeto de regulación.
  3. Transparencia. Se torna fundamental la publicidad de las normas, para así otorgar mayor transparencia el proceso regulatorio mediante, por ejemplo, la publicación de memorias explicativas de los proyectos que llevaron a la norma, o impulsando el contacto con los sectores que se verán impactados por la regulación, mediante, por ejemplo, foros para el diálogo en que se intercambien diferentes puntos de vista.

Impacto en la industria aseguradora

Las repercusiones de la inteligencia artificial en el sector asegurador pueden analizarse principalmente desde dos frentes. En primer lugar, encontramos los nuevos riesgos asociados al desarrollo de esta tecnología, y en tal medida es necesario evaluarlos, cuantificarlos, asegurarlos y mitigarlos, pues tal y como hemos venido sosteniendo, el desarrollo de la inteligencia artificial y el uso creciente de la misma plantea numerosas cuestiones novedosas y nuevos escenarios de riesgos. En segundo lugar, encontramos las oportunidades que tiene el sector asegurador con el desarrollo de esta tecnología, esto es, cómo puede la industria aseguradora aprovechar el potencial de la inteligencia artificial, cómo puede usarlo para mejorar su competitividad, mejorar la experiencia del cliente, reducir la exposición al riesgo, y ofrecer servicios de tarifación, suscripción y reclamación personalizados y adaptados a la medida de cada cliente.

Como hemos venido sosteniendo a lo largo del texto, los avances y desarrollos en inteligencia artificial son inminentes y por ello es importante tener en la mira los riesgos que puede traer. Así, se ha sostenido que los nuevos riesgos de la inteligencia artificial pueden clasificarse en cinco áreas, a saber, accesibilidad del software, seguridad, responsabilidad, obligación, y ética.

Tal y como puede observarse, los nuevos riesgos que trae consigo el desarrollo de la inteligencia artificial son, en gran medida, similares a las preocupaciones regulatorias que tienen los gobiernos alrededor del mundo. Como vimos en el apartado anterior, la determinación de responsabilidad de los sistemas de inteligencia artificial es un tema de suma importancia. Es crucial que se determine si es el fabricante o el programador de los sistemas de inteligencia artificial quien debe asumir la responsabilidad por los daños o perjuicios que se ocasionen haciendo uso de los mismos.

Y es justo aquí en donde la industria aseguradora cobra un papel fundamental en materia de inteligencia artificial. Debido a los nuevos riesgos que representa el desarrollo de esta tecnología, y a los nuevos desafíos a los que se ven enfrentadas tanto las empresas que lo desarrollan como los usuarios de los mismos, la industria aseguradora está llamada a jugar un papel fundamental en la minimización, gestión y transferencia de estos nuevos riesgos.

Lo anterior implica entonces un reto para las aseguradoras pues tienen que tener la capacidad de identificar, cuantificar, asegurar y mitigar los nuevos riesgos que se presentan con el desarrollo y uso de esta nueva tecnología.

Ahora bien, quizás el beneficio más tangible que tenemos actualmente de la inteligencia artificial en la industria aseguradora es la automatización de procesos mecánicos y algunos otros que suponen algo de esfuerzo intelectual . Esta automatización significa eficiencias de tiempo, esfuerzos e inversiones, lo que se traduce en experiencias positivas en los clientes, y en ahorros significativos para las compañías aseguradoras, permitiéndoles concentrar su atención en procesos más estratégicos e innovadores, en lugar de concentrarse en procesos mecánicos y repetitivos que generan una gran carga operativa, pero que no generan ningún valor para el cliente o la compañía.

Podríamos afirmar entonces que el desarrollo de la inteligencia artificial puede traer un impacto triple en la industria aseguradora, llevándola a:

  1. Repensar las bases del aseguramiento.Las partes principales en el negocio de los seguros, esto es, la aseguradora y el asegurado, han tenido, tradicionalmente, información diferente, lo que es fundamental para entender la economía del sector asegurador, pues la asimetría de información lleva a comportamientos estratégicos y conduce a la selección adversa y al riesgo moral.No obstante, los avances en inteligencia artificial y en el análisis y recopilación de datos, pueden alterar esta asimetría, brindando una mirada exhaustiva y dinámica de la transacción y contrato de seguro, pues mientras que la información era incompleta y fragmentada, los sistemas de inteligencia artificial y el procesamiento de Big Data permiten el acceso a información completa, de calidad y disponible en tiempo real, lo que implica que los altos costos para obtener información se reducen a un gasto mínimo. En este sentido, la información es un producto básico, y la inteligencia artificial permite procesar gran cantidad de información de cualquier índole, otorgando una gran ventaja.La inteligencia artificial y el masivo análisis y procesamiento de datos nos llevarán a un mundo de predicción ex ante y de monitoreo a posteriori, lo que cambiará la forma en que se observan, analizan, realizan y resuelven los riesgos. Estos cambios impactarán los equilibrios actuales del mercado en general, y del sector asegurador en particular, tanto del lado de la oferta como del de la demanda. Y si bien la industria aseguradora podría tener una ventaja temprana al tener más medios y herramientas para analizar y procesar los datos, la inteligencia artificial transformará ambos lados de la transacción del seguro a largo plazo.
  2. Redefinir la distribución de los productos y servicios de aseguramiento, fomentando fuertemente las eficiencias en el proceso de suscripción y reclamos, refinando el conocimiento y modelación de riesgos, e incluso, promocionando el desarrollo y la innovación de productos.

    La inteligencia artificial hará parte de la mayoría de las etapas del ecosistema de seguros, desde la experiencia del cliente hasta la innovación de productos, y en tal sentido generará cambios significativos para la industria aseguradora, especialmente en la forma en que ofrece productos y servicios. La inteligencia artificial permitirá entonces mejorar la experiencia del cliente en la industria aseguradora , además de mejorar la eficiencia en suscripciones, procesamiento de reclamaciones, análisis de riesgos y el desarrollo de nuevos productos.

    Como resultado de lo anterior, las aseguradoras podrán conocer más a fondo a sus clientes y sus riesgos, lo que les permitirá fijar tarifas y suscribir con mayor precisión y de manera más personalizada, además de identificar mejor los reclamos fraudulentos, y detectar y monitorearán mejor los riesgos en evolución.

  3. Transformar el universo del riesgo.

    La inteligencia artificial tiene el potencial para resolver muchos de los desafíos actuales en el universo de riesgos, principalmente mediante la creación de sistemas de detección más rigurosos y sistemáticos para el fraude, los errores y los riesgos. No obstante, pensar que la inteligencia artificial eliminará por completo el riesgo es erróneo, pues igual que todos los desarrollos tecnológicos, su progreso y adelantos crea nuevos riesgos y desafíos que pueden llegar a ser muy importantes y relevantes, como, por ejemplo, el riesgo cibernético cobrará cada vez más importancia en la medida que los sistemas de inteligencia artificial se expandan y desarrollen.

Como podemos observar entonces, la inteligencia artificial trae nuevos desafíos y retos para la industria aseguradora, pero a su vez, trae beneficios y ventajas importantes que deben saberse aprovechar y utilizar. La personalización de las ventas, la atención diferencial a los clientes, la agilidad en el proceso de suscripción y reclamación, una tarifación personalizada, y la posibilidad de mitigar el riesgo, son algunas de las áreas en las que la inteligencia artificial tiene gran potencial en la industria aseguradora, y que depende de cada compañía adaptarse y transformarse a estos nuevos cambios, para así seguir siendo sostenibles y relevantes.

Conclusiones

Si bien la inteligencia artificial no es un tema reciente ni novedoso, podemos decir que ha venido cobrando mayor importancia en los últimos tiempos, y en tal medida ha venido ocupando un lugar importante en el desarrollo de diferentes sectores, especialmente por los nuevos riesgos que plantean sus avances e implementación.

Los avances en inteligencia artificial permiten prever sistemas que puedan reemplazar por completo algunas de las tareas que realizan los seres humanos, y podrán hacerlo de forma más ágil, precisa, eficiente y a menores costos. Además, los sistemas de inteligencia artificial podrán desarrollar capacidades de aprendizaje que les permitan, en alguna medida, tomar decisiones autónomas que pueden acarrear tanto beneficios como consecuencias negativas, generando a su paso daños y perjuicios.

Son precisamente estos riesgos los que han llevado a que los principales actores y desarrolladores del mundo de la inteligencia artificial se cuestionen por la determinación de criterios claros que rijan el actuar de los sistemas en el futuro, determinando reglas suficientemente claras sobre la materia.

En este sentido, múltiples reguladores alrededor del mundo se han empezado a cuestionar sobre la manera idónea para reglamentar adecuadamente los sistemas de inteligencia artificial y si bien hoy en día la regulación es primitiva e incipiente, podemos ver cómo la inteligencia artificial es un tema que está empezando a preocupar a los gobiernos y ha empezado a ocupar las agendas políticas de los diversos gobernantes.

Podríamos afirmar entonces que las mayores preocupaciones sobre inteligencia artificial en materia regulatoria versan sobre la determinación de la responsabilidad, el uso de los datos a los que pueden tener acceso estos sistemas, además de los problemas éticos a los que se ven enfrentados los reguladores al tener que establecer límites en los alcances que puedan tener los sistemas de inteligencia artificial por los impactos que puedan representar para la economía, el empleo, los sistemas de seguridad social, y los diferentes sectores como el financiero, el asegurador, el de movilidad, el de la salud, la educación, entre muchos otros.

Y si bien aún las grandes potencias en el tema, esto es, la Unión Europea, Estados Unidos y Rusia, no han tomado aún una posición regulatoria frente al tema, lo anterior no obsta para que el regulador local empiece a preocuparse por tener en la mira a los sistemas de inteligencia artificial, entenderlos más a fondo y empezar a pensar en reglamentar la materia.

En definitiva, la inteligencia artificial es un tema que va cobrando poco a poco cada vez más fuerza y relevancia en el mundo y por ello debemos estar atentos a los beneficios y nuevos riesgos y retos que la misma pueda representar. Y en ese sentido es que los reguladores deben analizar el tema y empezar a tomar decisiones sobre la materia antes de que sea demasiado tarde.

Referencias bibliográficas