IA 2: Inteligencia artificial. ¿Regular o no regular?

    La irrupción de la IA  nos impone reflexionar si hay que regular su desarrllo, hasta dónde y con cuáles objetivos. 


    Construyendo las primeras certezas, podríamos afirmar que la autorregulación de estas cuestiones no es suficiente. Por el contrario, el estado y las organizaciones multilaterales regionales y globales tienen un rol que cumplir imponiendo marcos jurídicos que, sin ahogar la iniciativa privada, provean cuerpos normativos para el uso regular y prudente de las nuevas tecnologías.

 

    El primer hito conocido en torno a la regulación de esta materia es la Ley de IA de la Unión Europea, vigente desde el 21 de abril de 2021, con el objetivo de establecer un marco regulatorio para el desarrollo, la implementación y el uso de la IA en la Unión Europea. Dicha ley clasifica los sistemas de IA en cuatro categorías de riesgo según su potencial para causar daños. Califica como prohibidos los sistemas que representan un riesgo inaceptable para la seguridad, los derechos o las libertades fundamentales, como los sistemas de puntuación social o los juguetes que fomentan comportamientos peligrosos en los niños. Luego determina como sujetos a requisitos estrictos aquellos sistemas de alto riesgo, como los sistemas de reconocimiento facial o los chatbots, que pueden manipular el comportamiento humano. Fija obligaciones de transparencia a los sistemas de riesgo limitado, como los chatbots de atención al cliente o los softwares de análisis de imágenes. No impone mayores recaudos para los que considera sistemas de riesgo mínimo, como las calculadoras o los filtros de spam. Avanzan también en la administración aplicaciones automatizadas mediante el uso de la robótica y de la IA, en algunos servicios públicos de especial importancia.

    Con ese nuevo marco, la IA ha ido posicionando su uso para la toma de decisiones de tipo autómatas, por parte de instituciones públicas. Unas de las herramientas más utilizadas son los denominados “robots conversacionales” o “chatbots”, con los cuales no debiera pretender sustituir a las personas ni al funcionamiento del cerebro humano, sino a la automatización de determinadas actuaciones que ayudan y potencian al ser humano en sus capacidades naturales destinando así lo mejor de la inteligencia humana para otras tareas que requieren ineludiblemente de su participación. 
  Avizoramos buenas oportunidades a partir del uso de herramientas digitales automatizadas o robóticas. Pero las innovaciones deberán correr a la par de principios, normas y auditorías que fortalezcan la seguridad, aspectos éticos, derechos personalísimos y otros derechos humanos. Cuestión sensible configura la colección de datos personales, su almacenamiento, custodia y uso regular. 
  
  Tampoco debeiera perderse de vista entre ellos los sectores sociales con dificultades para acceder a internet, que sufren la llamada “brecha digital”. Y también, sin que coincidan necesariamente con ellos, quienes puedan invocar el “derecho a no ser digital”.  En todos los casos los gobiernos deberán estar en condiciones de ofrecer los medios para que, aquellos que no puedan o no deseen utilizar Internet o interfaces digitales, cuenten con los canales tradicionales para posibilitar sus relaciones con el Estado.
    
    En todo el mundo las regulaciones avanzan lentantamente por detrás del vertiginoso avance tecnológico, por lo que debemos ponernos a debatir las regulaciones necesarias, ante una proyección que puede poner en jaque nuesta cultura e instituciones tal como las conocemos.