IA NOTA ok ¿Dios en una caja?: los alcances de la Inteligencia Artificial keyboard_arrow_left Volver
¿Dios en una caja?: los alcances de la Inteligencia Artificial

Algo (¿o alguien?) está dando que hablar. Se trata de una Inteligencia Artificial, el ChatGPT, cuya capacidad de responder casi que lo que le pidas, de forma natural y fluida, hace que sea muy difícil de distinguir que se trata de una máquina. De paso, está removiendo ciertos pilares que hemos construido como humanidad, como muestra capacidad de crear; y nuevamente provocando un debate sobre los riesgos y beneficios de estas tecnologías.

 

En noviembre el año pasado se lanzó el ChatGPT, una aplicación de Inteligencia Artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, de forma muy intuitiva y natural. Recientemente se incorporó esta herramienta a Whatsapp, curiosamente denominada “God in a Box” (“Dios en una Caja”), definición que de alguna manera es un indicador de los alcances que estos desarrollos podrían tener en nuestra sociedad.

Quienes han interactuado con el ChatGPT han tenido la sensación de estar ante algo que no habían experimentado nunca, de hecho, se hace muy complicado distinguir que el texto ha sido generado por una máquina.

La tecnología ya existe hace años, pero esta en particular ha sorprendido por la compleja elaboración de sus respuestas, versatilidad y rapidez. Ha sido entrenada para mantener conversaciones con cualquier persona y es capaz de responder a cualquier cosa que le pidas y de hacer muchas cosas que le solicites. Trabaja con 175 millones de parámetros y puede utilizar toda la información a su alcance vertida en internet hasta 2021. O sea, camionadas de datos.

Pero a la vez, ha generado debate en el mundo, al punto que escuelas de Estados Unidos y Alemania ya prohibieron su uso en sus establecimientos. De hecho, un profesor de la Universidad de Pensilvania en Estados Unidos descubrió que el chatbot aprobó un examen final de MBA y otros docentes han detectado fraudes de estudiantes en algunos trabajos. Increíblemente, los textos presentados y generados por la inteligencia artificial aprobaron con buena nota.

Una serie de noticias han comenzado a inundar los portales informativos del mundo estas últimas semanas: El cantante Nick Cave estalló en cólera al recibir una canción hecha por esta inteligencia artificial a pedido de uno de sus fanáticos. También se conoció el caso de un hombre que escribió e ilustró un libro para niños solo en 72 horas usando esta misma tecnología. O el reclamo de la comunidad científica contra la posibilidad de que su uso en los artículos que se publican, tengan derechos de autor.

Holden Thorp, redactor jefe de la prestigiosa revista estadounidense Science, anunció una actualización de su política editorial, prohibiendo el uso de textos de ChatGPT, debido a que estas publicaciones exigen que los autores firmen un formulario en el que se declaran responsables de su contribución al trabajo; y el programa de IA no puede ser autor.

 

¿Máquinas artistas?

El crecimiento de esta tecnología podría plantear un peligro ante una de las características que nos distingue como especie: la capacidad de desarrollar obras artísticas o de crear. O bien, el riesgo de comenzar a depender de ella para estas tareas, simplemente para ahorrarnos tiempo y esfuerzo.

El tema de la creatividad en relación a las IA es un gran debate, sin embargo, actualmente lo que esta tecnología hace es reproducir ciertos parámetros con una capacidad inmensa de gestionar información, donde emana un resultado aparentemente nuevo, pero que no es más que la combinación de muchos datos. De creatividad, poco.

 

Un concurso de arte ganado con una obra hecha mediante Inteligencia Artificial

“Yo no me atrevería a aseverar que las máquinas tengan la capacidad de crear cosas artísticas, creo que aún falta para ello y la creatividad humana tiene más sentido. Lo que hacen es un remix que viene de esa capacidad de desarrollar o de procesar muchísima información”, explica Ana María Castillo, codirectora del Núcleo Inteligencia Artificial, Sociedad, Información y Comunicación (IA+SIC) de la Universidad de Chile.

Y claro. Cómo crear una obra de arte si no se tiene conciencia. Hace unas semanas en el Congreso Futuro, evento científico que se lleva a cabo en Chile todos los años, se realizó una conversación con Charles Darwin, científico fallecido en 1882. Evidentemente no era el famoso naturalista y el pensador más importante de la evolución humana, sino una inteligencia artificial programada para “responder” como él.

“La IA general, o sea, la idea de una verdadera conciencia artificial o capacidad de simular una conciencia, es un objetivo utópico aún. Las simulaciones en las que se está trabajando requieren una gran cantidad de información previa, de muchos datos a partir de los cuales se crean modelos flexibles, que pueden ser modelos como los que funcionan en el ChatGPT u otros desarrollos. Eso no significa que estemos cerca de crear una conciencia virtual”, indica Castillo.

Aquí saltan otras preguntas fundamentales: La Inteligencia Artificial, ¿Es realmente inteligente? y ¿Qué es ser inteligente? Pablo Haya, investigador español de ciencia de datos, en una entrevista en el portal Agencia Sinc abre una puerta hacia una respuesta. «El ser que piensa que piensa. Además de ser conscientes, los humanos somos sintientes y para eso necesitamos un sistema nervioso que genera hambre, deseo, miedo, etc. Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente, e interpretas lo que es la alegría porque tenemos una semántica compartida, aunque la interpretes a tu manera», recalca.

En efecto, aún las IA no son capaces de entender el conocimiento que generan o comprender qué es ella misma. Tienen que haber alcanzado la singularidad (ese momento en que las máquinas ganen conciencia y no se puedan diferenciar de nosotros) para poder comprender (distinto a aprender) o crear. Al día de hoy no podemos decir que exista una inteligencia de ese tipo, singular. Pero sí es un hecho que esta tecnología ya se usa desde hace años, no solo para hacer preguntas y esperar una respuesta, sino para cosas bastante más serias.

 

Riesgos cotidianos

Toda tecnología tiene beneficios, desafíos y riesgos. Los beneficios generalmente están asociados a aquellas tareas que vamos a poder realizar más rápido o más eficientemente. Pero a la vez vemos riesgos en cuanto a la utilización de datos personales o la macroutilización de estos, que pueden no estar asociados a las características situadas de las personas.

En Australia, por ejemplo, un algoritmo utilizado por una entidad financiera de recolección de impuestos y que determina cuánto deben pagar los clientes, se equivocó y comenzó a cobrar a quien no correspondía. Los afectados no sabían qué estaban pagando ni a quién debían acudir para preguntar sobre este error, porque ni siquiera las personas que habían desarrollado esos algoritmos podían entender lo sucedido.

Otro caso: hace poco, se conoció el estudio de ProPublica, una corporación sin fines de lucro que descubrió que el software utilizado por el sistema judicial en EE. UU. para determinar el riesgo de reincidencia, tenía el doble de probabilidades de señalar erróneamente a individuos afroamericanos. Parece ser un mal uso de algoritmos sesgados.

Pero hay que tener en cuenta que estos son en general elaborados en países desarrollados, y provienen de personas que son de características muy específicas: hombres blancos, de clase alta, que tiene una concepción del mundo muy particular. Luego esos algoritmos son aplicados e implementados en sociedad y culturas que no responden a los cánones para los cuales fueron elaborados. Gran problema.

La IA requiere grandes volúmenes de datos para entrenar sus modelos predictivos. Por ejemplo, para que una máquina aprenda a detectar caras, le enseñamos muchas imágenes de caras y muchas imágenes de otras cosas que no lo son. Aprende así a encontrar formas, colores y otros patrones visuales que son típicos en los rostros que le hemos enseñado. ¿Qué pasa entonces si solamente le mostramos rostros de personas blancas? El sesgo de una inteligencia artificial va amarrada también el sesgo de nosotros mismos.

Y también hay otro tipo de impactos cotidianos. “Cuando pensamos en IA pensamos en cosas muy abstractas como la nube, cosas intangibles, pero la verdad es que estas tecnologías están construidas sobre la base de mucha infraestructura material: litio, cables, data centers, electricidad, cosas que consumen espacio y que implican trabajo precarizado. Los desarrollos tecnológicos están siendo negativos para algunas comunidades, las que aparecen invisibilizadas para hacer sobrevivir esta idea de que es una tecnología limpia, etérea, que nos llega como por arte de magia. Yo creo que esa desmitificación es urgente y muy importante”, comenta la académica de la Universidad de Chile.

Ana María Castillo y Lionel Brossi, codirectores Núcleo IA, Sociedad, Información y Comunicación [IA+SIC]

La infancia frente a la IA

¿Si el ChatGPT es capaz de engañar a un adulto, qué podría causar en un niño que se enfrenta a él? El público infantil ha sido tradicionalmente marginalizado en los desarrollos tecnológicos y la tecnología mal atendida o educada puede ser una herramienta disruptiva y peligrosa.

“Diría que el peligro no está per se en la tecnología sino en cómo esta se desarrolla. El tema es cómo ayudamos a niños a entender cómo funciona o relacionarse de mejor manera, más horizontal con ella, con poder de decisión y eso es algo que se educa”, advierte Castillo.

Existe el concepto de educación en ciudadanía digital ampliada, en el que investigadores están trabajando, y que propone estar informado sobre tecnología desde la infancia, para poder enfrentarse críticamente a esos desarrollos, y entender cuál es la información de buena calidad y los alcances de estas tecnologías. De hecho, hay desarrolladores de IA que están creando algoritmos para detectar qué textos son creados artificialmente y con qué fines.

“Si uno ve cómo se relacionan los jóvenes e infancias con la tecnología, podemos ver que tienen una visión crítica de los desarrollos tecnológicos y que sus fuentes de información más confiables terminan siendo las personas conocidas, sus familiares. Entonces, hay que educar en esto también a las personas adultas”, complementa.

Pero a la vez esto representa una carga para el sistema educativo y el Estado. La educación mediática e informacional es una necesidad de nuestro país y eso se extiende a lo que entendemos por tecnologías digitales. No van por carriles separados, ambos conceptos se cruzan: ya no podemos hablar de medios sin hablar de redes o de internet, entonces la responsabilidad recae también en el sistema educativo.

“Soy muy crítica respecto de cuando las compañías tecnológicas nos presentan las dificultades y luego como Estado y sociedad tenemos que hacernos cargo del gasto que esas necesidades requieren. Las empresas más grandes nos traen desarrollos tecnológicos que dificultan nuestra convivencia y nosotros desde los recursos públicos tenemos que pensar en una solución desde la educación o formación”, afirma Castillo.

 

¿Cuál es el límite?

La pregunta de este subtítulo es una de las que más se repiten en debates, en espacios universitarios o en la mesa de un restaurante. ¿Cuál es el límite de lo permitido en estas nuevas tecnologías y a la vez cómo esas barreras, morales o legales, pueden frenar la innovación? Y es que no se puede perder la perspectiva: hay muchísimos casos positivos de IA aplicada a la vida cotidiana, que son un beneficio para la humanidad y los demás seres de este planeta.

Cada vez vemos más Congresos en este ámbito que incluyen el tema de Fairness in AI (traducido como justicia en IA), que apunta a que estos desarrollos sean interpretables y que den explicaciones sobre las decisiones que toman. De esta forma sería más fácil evaluar si la decisión que toman es aceptable o no.

El informe “Orientación de políticas sobre el uso de la inteligencia artificial en favor de la infancia”, realizado por UNICEF junto a otras instituciones, y que desarrolla recomendaciones globales para generar políticas y sistemas de Inteligencia Artificial que protejan los derechos de niñas, niños y jóvenes, detectó que quienes participaron coincidieron en que todos los desarrollos tecnológicos deben estar orientados al bien común, un enfoque que hoy aparece algo extraviado.

“Tenemos desarrollos que lo que hacen es enriquecer a grandes compañías, cuyos dueños pueden pensar en un futuro para pocos, que pueden ir de viaje fuera del planeta, que permiten que exista un Metaverso al que para acceder se necesitan unas condiciones de infraestructura a las que la mayoría no pueden acceder; en fin, hay muchos desarrollos benéficos para muy pocas personas. Lo que creo es que cualquier conversación orientada a la regulación, debe estar a la vez orientada a desarrollos que favorezcan a muchos y no a pocos”, culmina Ana Maria Castillo.

La aparición de la Inteligencia Artificial implica un constante cuestionamiento a la misma humanidad y es un hecho que representa una serie de peligros en otros temas sensibles, como  propagación de noticias falsas, la privacidad o los derechos de autor. El punto es que combatir el desarrollo tecnológico resulta absurdo, y tiene más sentido centrar los esfuerzos en lograr que este sea usado en una dirección positiva con una ciudadanía provista con las barreras, herramientas y antídotos necesarios, así como lograr que los jóvenes de hoy sean capaces de entender cómo funcionan los algoritmos que dan forma a sus vidas, así como quién los diseña.