Por María Vanina Martinez

Desarrollo científico, inteligencia artificial y política

Cultura 28/05/2023 Hora: 13:30
Desarrollo científico, inteligencia artificial y política
Desarrollo científico, inteligencia artificial y política

Por María Vanina Martinez *

 

Cuando se piensa en los efectos, impactos o, en fin, influencia de una tecnología con fuerte base científica en las instituciones y política contemporáneas ya estamos, desde el comienzo, en el terreno de las dificultades que se presentan cuando la ciencia conversa con otras instituciones. La ciencia tiene su propio lenguaje y lógica de especialización que no está por sí misma preparada para ese diálogo. En el caso de la inteligencia artificial (IA) el problema puede ser más agudo porque es una tecnología ligada a efectos de alto impacto, pero eso no hace que el diálogo ciencia-política sea más sencillo. La relación generalmente problemática que se establece entre las nuevas tecnologías y la política es global, sucede en todos los países y en todos los Estados, incluso pensando en las organizaciones (UNESCO, NNUU). Este problema, en algún punto, se deriva del hecho de que hablan dos idiomas completamente distintos y no pareciera haber, en principio o por ahora, aunque se está construyendo, un mediador que pueda, o bien subir el nivel de abstracción con el que se están explicando las cosas más técnicas, o bajar, hacer más concreto aquello que se discute en términos más abstractos.

Tal vez en otros países, que llevan unos años tratando de hacer esta conexión, hay algunas estructuras y se está tratando de generar algunos mecanismos que permitan tener ese espacio de diálogo así como también hacer confluir a los actores que van a estar en el medio. Por ejemplo, el Instituto para Desarme de Naciones Unidas trabaja específicamente en la parte de tecnología aplicada al desarme. Cuenta con un equipo que, si bien tiene ya un tiempo, en los últimos años se ha dedicado específicamente a la inteligencia artificial. Es un conjunto de expertos que tienen formaciones muy variadas que se encargan de hacer documentos, foros, webinars para “los dos lados”, o sea explicando, por una parte, cuál es la perspectiva desde el punto de vista político, cómo nos tiene que impactar o importar a nosotros los científicos, y por otra parte, las problemáticas desde el punto de vista técnico de la inteligencia artificial; ellos trabajan de traductores para el sector político. Más que formar políticamente al programador o enseñar al político sobre inteligencia artificial, se necesita una línea de traducción en el medio que sea sensata. Es decir, la gran cuestión a la hora de pensar la interfaz entre la ciencia y la política es la cuestión de la traducción. Pero entonces: ¿cómo se piensa al traductor?

Hay una disciplina que ha surgido en los últimos 10 o 15 años, que es la ciencia de los datos. El científico de datos funciona, de alguna manera, como traductor. Esta persona tiene que tener skills de computación y skills muy fuertes de matemática (especialmente de estadística), y por otro lado tiene que conocer el dominio de la aplicación. Si lo que está haciendo es análisis o ciencia de datos sobre datos  biológicos, tiene que tener una idea de cuál es la semántica de esos datos porque su trabajo va a ser construir, a partir de los datos, conocimiento nuevo para esa área y no puede no saber qué es lo que está manipulando. Es un rol muy complejo que actualmente está siendo muy banalizado: haciendo un curso de dos o tres meses se  saben  científicos  de datos. Un traductor  tiene  que  tener  conocimiento  técnico: si bien no es necesario que conozca cómo funciona el estado del arte de la IA, sí es necesario que conozca las bases. Tiene que tener un entrenamiento de las ciencias duras pero tiene que haber trabajado y estar inmerso en ese ámbito más abstracto donde va a ayudar.

PUBLICIDAD

Por otra parte, tampoco creo que sea cuestión de que haya un solo traductor: tiene que haber una cadena de traducciones porque el gap es muy amplio. A lo largo de los años un científico aprende a cuidarse mucho en términos de definición y utilización de conceptos porque pasa todo el tiempo con este tipo de elementos: yo menciono un concepto que, desde mi disciplina, se define en un lenguaje formal y existe un teorema que prueba que funciona de tal o cual manera, y para la persona que viene desde las ciencias sociales o la ciencia política o no significa absolutamente nada o se abre un nuevo universo de cuestiones que puede tener que ver con otro análisis y suposiciones sobre el mismo concepto. Esto puede ser interesante y creativo, pero también puede dar lugar a confusiones importantes.

En términos institucionales, las organizaciones (como Naciones Unidas) que se proponen explorar y desarrollar este espacio de la traducción tienen una mezcla de perfiles: gente que puede hablar mejor con los programadores, gente que puede hablar mejor con los diplomáticos, y después ellos hablan entre ellos y generan un documento que, si bien a ambos extremos puede que les resulte complicado de leer, les es posible hacerlo:  hay un proceso  inicial  que ya está en marcha. La ciencia básica se produce en universidades y en algunas instituciones de investigación muy específicas ligadas al sector privado. Y luego organizaciones como NN. UU. ponen otras instituciones intermedias. Por ejemplo, NN. UU. tiene su propio instituto de desarrollo: la misma organización hace ciencia intermedia. Ellos van uniendo a los diferentes grupos, para trabajar en cuestiones particulares que después permitan construir un conocimiento más cercano al diplomático.

La situación de Argentina

Como respecto de otros temas, en esta cuestión en la Argentina ocurre que hay mucho por hacer y a la vez hay experiencias que muestran avances interesantes, aunque aún no haya un sistema que pueda aprovechar lo interesante de esas experiencias. Por ejemplo, está por salir el borrador del anteproyecto para modificar la Ley de Datos Personales de la Argentina. La Agencia de Acceso a la Información Pública hizo un trabajo de seis meses para desarrollar este anteproyecto, se reunió con varios grupos provenientes de diferentes sectores de la sociedad (universidades, organizaciones civiles, empresas) y trató de congeniar todas las ideas y las preocupaciones como para describir una ley que esté basada en principios generales, lo cual la haría versátil ante el cambio tecnológico que, suponemos, va a seguir o inclusive se va a incrementar en el futuro cercano. Se trata de un caso interesante porque una necesidad legislativa puso en movimiento una serie de comunicaciones en vistas a que la legislación no caiga en saco roto. Pero fue un trabajo puntual y, en algún sentido, un poco frenético, sin sostén en un trabajo de largo aliento. Entonces, como vemos, hay todo un movimiento político que se está generando y después hay necesidades reales que están muy lejos de eso: el funcionario público que quiere trabajar con datos, primero, no tiene ni idea de las leyes que tiene que respetar; segundo, no tiene ni idea de cómo plantarse frente a la tecnología de una manera crítica: no sabe que lo tiene que hacer porque hay un sesgo cognitivo que, en general, nos dice que la tecnología es neutra, que es mejor y que todo lo que hagas de manera automatizada  va a ser mejor. Entonces, de alguna manera se consiguió desarrollar una conexión para generar leyes, regulaciones, una especie de acuerdo de cuáles son los temas importantes en relación con los datos personales y la tecnología, pero en el campo, en la vida real, en el mismo Estado, no hay una estructura, la educación tiene muchos desafíos por delante, no existe un plan integral de alfabetización digital para la sociedad. Esto es importante: este sesgo o pieza del “sentido común” según la cual la tecnología es una herramienta neutral, que solo hay que capacitarse para aprender a usarla, termina jugando en contra de la producción de espacios sofisticados de traducción entre la esfera científica, por un lado, y la política y sus instituciones, por el otro.

En Argentina se están llevando adelante diversas iniciativas en este sentido pero cada una de estas, en general, sucede en una burbuja completamente distinta, desconexa, que no termina de armar realmente un panorama que plantee al país un plan de trabajo, de modernización, de adopción ordenada de la IA. Hay una brecha entre los distintos sectores y actores que no hace posible que se avance de manera efectiva.

En otros países de la región que han avanzado en materia de planificación productiva y científica de la IA, suele haber intervenciones de organismos internacionales, como la  OECD,  el  BID,  incluso  la  misma Comunidad Europea es líder en estas cuestiones. Es importante y beneficioso tener este tipo de organizaciones que ayudan a atravesar el camino, pero en general, más allá del conocimiento y la experiencia, esto viene indefectiblemente acompañado de una agenda propia que se intenta imponer. Si uno mira cómo avanza la IA en el sector productivo de otros países y ve en qué sectores productivos avanzan en algunos países de nuestra región, uno se pregunta: ¿y por qué esos sectores? Muchas veces es por la intervención de las organizaciones internacionales. La pregunta que deberíamos hacernos todo el tiempo es: ¿a nosotros, Argentina, como país, qué campos nos conviene explotar, dónde queremos poner el esfuerzo y la innovación? El viejo problema de la relación entre financiamiento y autonomía.

Sobre la neutralidad en inteligencia artificial

Dicho esto sobre la relación más sistemática e institucional entre IA y política, digamos algunas cuestiones más cualitativas respecto de las coordenadas del impacto que esta tecnología tiene y puede tener en la política y sus instituciones. Retomando el asunto del “sentido común” según el cual una tecnología es neutral y su impacto se determina solo en el plano de quiénes y cómo la usan, empecemos por decir que bajo ningún tipo de interpretación la IA es neutral. El sesgo más importante es querer asumir que hay neutralidad en los algoritmos. Esto no es cierto para la inteligencia artificial que tenemos hoy pero tampoco es cierto partiendo de las bases de cuando nació la IA. Por un lado, la IA busca la automatización de ciertas tareas que, creemos, tienen en su base un comportamiento inteligente. Es decir, se asume que la inteligencia es computable o algorítmica y entonces se automatiza ese  comportamiento  inteligente por medio de una máquina, de una computadora. Pero todo agente inteligente tiene un sesgo, tiene objetivos, tiene sus metas, tiene incluso sesgos que, en principio, pareciera que no se pudieran representar en una computadora y que tienen que ver con sus propios sentimientos. Hay todo un camino para explorar en este sentido y preguntarse qué parte de la inteligencia no tiene que ver con el conocimiento, el razonamiento y los datos. Entonces, si el objetivo de la IA es replicar, reproducir o incluso mejorar las características de la inteligencia humana, el modelo siempre es el modelo humano y el humano no es neutro ante las decisiones. Entonces nunca va a ser posible, mientras se utilice el modelo humano, que una inteligencia artificial sea neutral porque los humanos no lo somos.

Por otro lado, la neutralidad de la IA se hace imposible en todas sus instancias de desarrollo: en el diseño, en la implementación y en la idea misma de que algo funcione como un algoritmo.  En la confección de cualquier tipo de tecnología (la etapa de diseño) se tienen que tomar decisiones y esas decisiones están sustentadas en toda la historia, la educación y las trayectorias del programador. En relación con los productos tecnológicos que consumimos, es bastante probable que la mayoría de las cosas que consumimos estén pensadas y diseñadas desde una mente blanca, de entre 35 y 40 años, masculina, en el hemisferio norte. Ese es en promedio el diseñador de IA que genera los productos que se consumen en todo el mundo: mirándolo desde esa perspectiva es claro que ese producto no puede nunca ser neutro. Pensemos en un asistente personal, ese producto, en general, se va a comportar como su diseñador espera que se comporte, y más problemático aún, el sistema va a esperar que su usuario se comporte como el diseñador lo pensó. El primer problema grave que podemos tener es el lenguaje, y de ahí podemos pensar en un abanico de cuestiones culturales que el asistente no tiene chance de interpretar correctamente.

Si hacemos este análisis desde un punto de vista más técnico, enfocándonos en cómo funciona la tecnología, los sistemas de IA que mayormente están a nuestro alcance son basados en aprendizaje automático (machine learning), un tipo particular de modelos dentro de lo que llamamos IA basada en datos o subsimbólica. Estos algoritmos reproducen patrones estadísticamente significativos que encuen- tran en los datos, datos que nosotros producimos como seres humanos, que a veces ni siquiera fueron producidos para ese algoritmo en particular sino que son, por ejemplo, recolecciones de nuestro comportamiento en la Web.

Ahí hay dos cuestiones: por un lado, que las herramientas de machine learning tienen un fundamento teórico estadístico pero la estadística está pensada para un conjunto de datos que se usan para ese experimento en particular. La estadística asume que los datos siguen una distribución particular y que cubren el fenómeno o la población de una determinada manera, y eso permite que se puedan extra- polar patrones de una muestra de datos a una población en general. Cuando nos referimos a sistemas de IA que aprenden a partir de datos que se encuentran en la Web, eso ya es una producción artificial que responde a una serie de decisiones más o menos fundamentadas científicamente: los datos recolectados de la Web no representan a todo el mundo, ni siquiera a todos los argentinos, o bonaerenses, porque no todo el mundo está en la web, en Twitter no están representadas todas las opiniones. Las suposiciones que se hacen sobre los datos son muy fuertes y sesgan el resultado, lo cual puede ser un problema si se usa como base para interactuar con una parte de la población o tomar decisiones acerca de ella. La segunda cuestión se encuentra relacionada con los sesgos que tienen los datos en sí mismos. Los datos son una reproducción de lo que nosotros hacemos, decidimos, y ni siquiera es completa porque el dato no guarda el proceso de razonamiento que hubo por detrás, solamente es una instantánea de algo que pasó. Los datos que utilizamos para alimentar los algoritmos de aprendizaje automático son un espejo de la humanidad y de nuestra realidad, y cargan en general con diversos sesgos culturales y sociales que pueden llegar a replicarse y reproducirse de manera masiva a través de estos sistemas. De alguna manera, los algoritmos de machine learning aprenden de nuestro pasado pero solo de la parte que quedó registrada en alguna base de datos.

Evolución histórica-disciplinar de la IA

Para enmarcar y delimitar un poco más el problema que esta falta de neutralidad acarrea para los impactos de la IA en la política es útil explicar un poco los límites disciplinares que tiene el desarrollo científico de la IA. Pues bien, si nosotros nos planteamos hoy la inteligencia artificial desde una pers- pectiva científica, es una rama de las ciencias de la computación donde también se trabajan muchas otras cuestiones, como por ejemplo sistemas, cómo crear hardware eficiente, cómo crear conexiones eficaces entre hardware y software, cómo diseñar interfaces entre  los  sistemas  y  los  humanos: la inteligencia artificial es una rama más dentro de ellas.  Si uno se pone a pensar en el  inicio  de  la  computación,  hay que remontarse siglos atrás, y la idea de que una máquina pueda resolver una tarea (quizás tan simple como un cálculo matemático, que es una de las pruebas ineludibles de que los seres humanos somos inteligentes y aparentemente no hay otras especies que puedan hacer cálculos con la misma profundidad) ha estado siempre presente.

El poder calcular algo a partir de una ecuación o una función matemática es algo que establece un tipo de inteligencia superior de la especie humana. En los principios del cómputo la idea era una máquina que pudiera hacer esto pero de forma autónoma, una máquina que pudiera hacer cálculos de manera correcta: para mí eso es inteligencia artificial ya que, si es algo que nos distingue del resto de las especies y es algo que para nosotros es importante y es importante que se haga de manera automática porque nos ayuda, nos hace más eficientes, entonces eso es IA: la ciencia de la computación tiene sus orígenes o, mejor, su impulso original en el deseo de crear máquinas que pudieran reproducir o emular comportamiento inteligente.

A lo largo de la historia de la disciplina ha habido toda una discusión sobre qué significa que algo sea inteligente, qué significa que algo sea artificial y qué estudiamos nosotros, entonces nuestro campo de acción es algo mucho más chico que cualquier cosa que sea artificial o inteligente: es algo que es inteligente, en ciertos términos y además computable en una computadora. Es importante esto porque ayuda a limitar las fantasías que a veces se movilizan con esta cuestión, sobre todo cuando se ligan al gobierno y cuestiones de Estado. Es mucho más acotado el término y nos permite pensar un poco mejor en los sistemas que existen y pueden existir y no embarrar las discusiones políticas con términos como por ejemplo inteligencia artificial general o la singularidad, eso no es lo que estamos construyendo y no es lo que vamos a construir y usar en un futuro no tan cercano.

Podemos poner el ejemplo de la aspiradora robot que va de una habitación a la otra limpiando: ¿eso no es inteligente? Hace unos años, cuando la Roomba no existía, si nos la hubieran mostrado nos hubiéramos impresionado y sorprendido de sus capacidades, le habríamos atribuido algún grado de inteligencia. Lo mismo pasa con muchos algoritmos y modelos que existen desde hace cincuenta o sesenta años pero que recién ahora están dadas las condiciones para que nosotros los usemos como usuarios legos en la computadora y en el teléfono. Lo que en ese momento era parte del estado del arte de la inteligencia artificial, hoy forma parte de una infinidad de sistemas de software que no llamaríamos especialmente inteligentes.

Desde esta perspectiva, que puede ser debatible, todo lo que hacemos en ciencias de la computación, de alguna manera, es inteligencia artificial. Eso abre una cuestión problemática: hay ahora un debate sobre cómo regular la IA o cómo establecer principios sobre los que hay que producir IA, pero también deberíamos pensar todos esos otros sistemas que por ahí parecen muy simples pero automatizan diferentes tareas, ¿hasta dónde hay que analizarlos con la misma lente que analizamos un sistema basado en redes neuronales profundas?, ¿tenemos que regularlos?, ¿con qué criterios? Tenemos que tener cuidado entonces al apoyarnos en definiciones que puedan limitar demasiado o demasiado poco la construcción de IA.

Inteligencia artificial basada en conocimiento y en datos

Para concluir, podemos plantear un ejemplo de cómo una cuestión relativa a la disciplina científica asociada a la IA puede intervenir en el debate sobre los impactos de la IA en la política y sus instituciones. Pues bien, un insumo importante, también dentro de lo que podría llamarse la descripción de cómo se arma la disciplina científica de la IA, está vinculado a las formas en las que se clasifica la IA. Los debates respecto de cuán innovador puede ser un agente IA (si está o no condenado a repetir patrones) o respecto de cómo debería lo humano conducir la IA pueden iluminarse si pensamos un poco cómo se organiza la propia disciplina. Lo primero que es necesario aclarar es que hay diferentes maneras de clasificar la inteligencia artificial y probablemente los científicos nunca nos vamos a poner de acuerdo ya que son todas válidas hasta cierto punto. Pero las dos grandes ramas de la IA a lo largo de la historia han sido, por un lado, la inteligencia artificial basada en conocimiento (también conocida como IA simbólica) y por otro lado, la inteligencia artificial basada en datos (IA subsimbólica).

La IA basada en conocimiento asume que el comportamiento inteligente se puede describir por medio de una teoría lógica, un conjunto de reglas, en un lenguaje que eventualmente se puede codificar en un sistema de computadora, y esta computadora, a partir de eso, puede funcionar de manera inteligente en el mundo. Para esto, la computadora debe tener una representación (un modelo) de lo que existe en el mundo y cómo funciona, relativo a sus objetivos y metas, es decir, un “mini mundo” que es la parte de la realidad relevante al problema que tiene que resolver. Por ejemplo, a la aspiradora inteligente, en principio, no le importa si hay partidos de fútbol en el mundo, o si Messi es un jugador o no, o lo que es el fútbol en general. Lo que sí le importa es poder reconocer que existe una cierta cantidad de habitaciones, que las habitaciones tienen dimensiones y ubicación, necesita saber cómo se puede acceder de una habitación a la otra, también alguna manera de definir si algo está limpio o no y conocer las acciones que puede realizar, limpiar, moverse, y las consecuencias que eso implica sobre el mundo: las acciones en general cambian el “estado del mundo” ya que si algo está sucio y yo lo limpio, ahora ya no está más sucio. La IA basada en conocimiento lo que presupone es que uno como humano puede especificar todo ese conocimiento y lo puede escribir en un lenguaje que la computadora entienda, y la computadora a partir de eso puede actuar en el mundo usando esas reglas junto con un algoritmo independiente del dominio que le indique cómo y cuándo aplicar las reglas, es decir, un mecanismo de razonamiento. Cuando decimos que es independiente del dominio queremos decir que el algoritmo funciona igual para cualquier conjunto de reglas que le demos, aunque estas describan el mundo de la aspiradora o el mundo de un juego de ajedrez o el mundo que necesita conocer un vehículo autónomo. La variabilidad de sistemas que hacen diferentes tareas se la da el conocimiento.

La IA basada en datos o subsimbólica, por otro lado, presupone que el comportamiento inteligente puede ser extrapolado a partir de los datos que los seres humanos generan. Una de las técnicas es el aprendizaje automático: un sistema aprende cómo tiene que comportarse de acuerdo con lo que ve en los datos, ¿y qué es lo que ve en los datos? Busca patrones que sean estadísticamente más significativos que los otros y, de distintas maneras, toma esos patrones como reglas para resolver las tareas que son su objetivo.

Entonces, la IA basada en datos va de abajo para arriba, de las observaciones en el mundo real reflejadas en los datos hacia el conocimiento y el comportamiento inteligente. La IA basada en conocimiento recibe conocimiento humano que describe comportamiento inteligente y a partir de eso decide cómo actuar sobre el mundo real.

Lo enunciado ha llevado a muchos teóricos a postular que la IA está condenada, de alguna manera, a replicarse: o replicar lo que exista en los datos, o replicar lo que nos da un experto de dominio en programación. Y esto suele entrar como argumento fuerte en contra de lo que se llama el gobierno algorítmico o la intervención de la IA en decisiones que impactan en la política. Lo más interesante de esto es que está un poco en la combinación de las dos metodologías que una pueda alimentar a la otra y que en esa alimentación surjan comportamientos nuevos para los cuales los sistemas no fueron ni programados ni tuvieron, en principio, evidencia previa de esa potencial situación.

Allí, en esa combinación, es donde aparece una novedad, algo que es automático en un sentido pero como no estaba prefigurado en el algoritmo inicial, es novedoso.

Los sistemas de aprendizaje automático llevan una etapa de entrenamiento: uno les muestra una parte del mundo, luego se chequea si los patrones que encontraron tienen sentido y después se ponen en funcionamiento: “Bueno, sí, genial, anda como yo quiero”. Pero cuando ese sistema se encuentra con la realidad, se puede llegar a encontrar con datos que no estaban en su entrenamiento y ahí es donde viene la parte de la IA que dice: ¿ahora qué hacemos? Los sistemas basados en datos de hoy fallan estrepitosamente en ese paso: no saben qué hacer. Y acá viene la gran diferencia con un humano, y es una diferencia que no es menor desde lo cualitativo: no saben que no saben, ese es el problema. Algo que puede parecer un pequeño error resoluble si se aumenta la base de datos, en verdad tiene un fundamento que es quizás infranqueable, digamos epistemológico: cuando no sabe, un ser humano responsable detiene el proceso que esté realizando; cuando no existe manera de conocer el límite de su propio conocimiento y sus habilidades, es probable que el agente, humano o no, continúe y cause efectos impensados en el entorno.

Por ejemplo, un caso real documentado en un experimento con vehículos autónomos: un vehículo autónomo encuentra el cartel de “pare” y sabe que tiene que parar, su modelo fue entrenado de manera que pueda reconocer esa imagen y asociarla a un concepto, el de que tiene que frenar. Ahora bien, si le ponemos un sticker pequeño con la imagen de una tostadora (algo que puede ocurrir por cuestiones fortuitas e impredecibles como que un chico estaba jugando y pasó por allí con un sticker), el algoritmo de reconocimiento de imágenes deja de ver que hay una señalización de tráfico y reconoce eso como una tostadora o una obra de arte. Internamente, por cómo funciona hoy esa tecnología, el sistema no tiene manera de saber qué significa eso ni cómo lo tiene que usar ni si tiene que volver a mirar por las dudas de que esté equivocado: entonces no frena. Este sistema no conoce el concepto de señal de tráfico, está entrenado para reconocer objetos y hay algunos objetos que determinan qué tiene que hacer, cualquier otra cosa que se encuentre por el camino es probable que la ignore. Sistemas tan complejos como estos requieren ambas capacidades, poder inducir conocimiento a partir de lo que ven pero también requieren conocimiento de dominio y sentido común codificado de antemano que les permita sopesar alternativas y responder de manera robusta a errores o situaciones no previstas.

Este tipo de incidentes muchas veces lleva a la demonización de la tecnología, lo cual no es más que la contracara de haber puesto allí expectativas y fantasías desproporcionadas, muchas veces producto de no conocer la base científica y dejarse llevar por lo deslumbrante que pueden ser las aplicaciones. Y allí es donde los científicos tienen que poder aportar en esta comunicación para que se entienda qué pueden hacer estos sistemas y qué no. Dejando de lado interpretaciones de ciencia ficción, en el colectivo ciudadano hoy mismo existen muchos mitos sobre las habilidades de los sistemas de IA. Un rol del científico debería ser intentar poner blanco sobre negro respecto de lo que es la tecnología y cuáles son los límites. Una vez que se comprende el estado de situación se puede pensar en el rumbo que la sociedad debe seguir con respecto al alcance y evolución de esa tecnología. Para esto tiene que haber un actor, siendo el Estado el único que veo que pueda hacer esto hoy en nuestra sociedad. El proceso desde mi punto de vista debería seguir de la misma manera que, en algún momento, el proceso que definió y restringió todo lo que tiene que ver con la generación de alimentos y drogas, de la misma manera que un medicamento no sale del laboratorio directo a ser usado, los sistemas de IA que automatizan procesos que creemos deben estar controlados por seres humanos tampoco deberían salir al mercado sin pasar por rigurosas pruebas e inspecciones.

Los sistemas de IA son sistemas “socio-político- tecnológicos”, no viven en cápsulas, en un vacío, todos de alguna manera u otra tienen un impacto en los individuos y en la sociedad. Los teléfonos inteligentes y todas sus aplicaciones, los sistemas de recomendación en nuestros dispositivos, los algoritmos que corren detrás de las páginas web y redes sociales que frecuentamos conforman y moldean nuestro comportamiento mucho más de lo que queremos aceptar. Es nuestra responsabilidad como sociedad decidir cuál es el límite de la tecnología, la IA no es algo que surge, es un producto que creamos de manera muy consciente. Quizás como sociedad decidamos que hay ciertas cosas que se las vamos a delegar a las máquinas dentro de ciertos parámetros de seguridad pero quizás hay otras que no. Y creo que esto hay que hacerlo ya mismo: ya estamos atrasados, ya hay consecuencias de los sistemas de IA que se van a empezar a ver en los próximos años en la sociedad. Hoy mismo existen armas autónomas que, a pesar de estar construidas con todas las limitaciones que nombramos, deciden cuestiones de vida o muerte. Claramente no necesitamos sistemas de IA muy inteligentes para afectar de manera negativa al mundo y a la sociedad.

El actor internacional más avanzado en estos términos es Europa, eso no quiere decir que lo estén haciendo de la manera más adecuada o eficiente, pero por lo menos están dedicados a la discusión. El primer borrador de regulación, que surgió a partir de la composición de grupos de trabajos multisectoriales y de expertos, generó muchas controversias y tiene oposiciones fuertes tanto del sector público como del privado, el académico como el ciudadano; desde mi punto de vista eso es bueno, independientemente de cuál sea la regulación que se obtenga, será fruto de esa discusión que por supuesto no es imparcial pero es bastante inclusiva. Entonces, para concluir, creo que discusiones como estas en las que se pone en conversación la universidad (donde se genera el conocimiento) con el sistema político-institucional donde se elaboran los acuerdos y decisiones de la comunidad) son importantes porque dan lugar a que esas instancias de traducción que decíamos al comienzo emerjan en una mesa donde se puedan pensar los criterios con la seriedad, el tiempo y la rigurosidad que corresponde.

 

 

*Capítulo extraído del libro Inteligencia Artificial y política (editorial Teseo)

para Democracia y Parlamento Futuro, artículo escrito por María Vanina Martinez

 
Instituto de Capacitación Parlamentaria (ICaP) (2022) Inteligencia artificial y política, Buenos Aires. URL:

www.teseopress.com/inteligenciaartificialypolitica/

LEER libro

 

 

Aporte Solidario

Tu contribución nos ayuda a seguir construyendo un periodismo distinto de calidad y autogestión.
Contribuir ahora
Comentar esta nota