entrevista

La era de la IA pone en juego la libertad de decisión del ser humano

La Inteligencia Artificial es hoy tema de conversación en las academias, en los círculos empresariales, en los centros de formación del talento humano, en los medios de comunicación

José Luis Córica

José Luis Córica-JLMYVMRZ

La Inteligencia Artificial es hoy una tendencia o “Tend Tipic” en las redes. Es tema de conversación en las academias, en los círculos empresariales, en los centros de formación del talento humano, en los medios de comunicación y ha comenzado a surgir un debate sobre los límites éticos de su aplicación en cada uno de los ámbitos de la vida humana, pero en especial, en la educación.

El tema fue abordado por el Dr. José Luis Córica, científico de datos, investigador y consultor internacional, quien visitó al director del Listín Diario, Miguel Franjul, a propósito de su participación como disertante en la ceremonia de apertura del “Simposio Internacional Inteligencia Artificial en la Educación Superior, Ética, Ciencia y Tecnología”, invitado por el ministro del MESCYT, Franklin García Fermín, entidad que organiza junto a la UASD el evento.

¿Qué es lo que ha originado este repentino interés en la Inteligencia artificial en todo el mundo?

Lo que entendemos como inteligencia artificial no es un fenómeno tan nuevo, ni en las áreas de investigación ni en las de educación. Los primeros algoritmos son de los años 50 y los trabajos de aplicación real de algoritmos de inteligencia artificial en educación datan de la década del 80 del siglo pasado, pero esta tecnología no se volvió disruptiva a nivel social, puesto que, para operarla era necesario poseer una formación tecnológica fuerte, en especial en el área de programación y estadísticas.

La disrupción no la produjo la tecnología en sí, sino la simplificación de la interfase de operación, en especial de una versión de la inteligencia artificial llamada autogenerativa como ChatGPT o Bart, que pueden operarse a través de preguntas en una simple, amigable y cercana ventana de chat.

¿O sea, que lo que cambió fue la disponibilidad?

Exacto. Es el tener la tecnología disponible a cualquier persona, para cualquier tipo de tarea lo que la convirtió en disruptiva, permeando la vida cotidiana de las personas, en especial de los estudiantes y los profesionales

Decimos disruptiva porque tiene repercusiones positivas y negativas profundas en la sociedad, en el medioambiente, en los ecosistemas y en particular en la mente humana, por su capacidad de influir en el pensamiento de las personas, en nuestras interacciones y en la adopción de nuestras decisiones como seres humanos.

¿Cómo ve el tema de la IA y Educación en República Dominicana?

Quizás no lo vean desde aquí adentro del país, pero desde la mirada de los consultores internacionales, República Dominicana lleva la delantera en el continente, por tener una iniciativa gubernamental de consenso sobre formulación de una Estrategia Nacional de Inteligencia Artificial. Esa iniciativa de gobierno no es declamativa, como estamos acostumbrados a ver históricamente.

Aquí se nota una voluntad y acciones concretas de convocar a la comunidad, a las instituciones, a los profesionales de las distintas áreas y ponerlos a trabajar juntos. Recuerdo que para las primeras etapas de diagnóstico el propio gobierno convocó a los expertos de la Sociedad Dominicana de Inteligencia Artificial, institución a la que tengo el honor de pertenecer (aún siendo extranjero) y que cuenta con pioneros y pioneras de la IA en Latinoamérica.

Creo que República Dominicana será uno de los países que mayor tasa de crecimiento tendrá en la implantación de la IA, porque han consensuado una visión, a la que han llamado visión 2050 con Inteligencia Artificial.

Hace poco Unesco pidió regular el uso de IA en las escuelas ¿Cuáles son las preocupaciones éticas que ven los profesores?

Hay una preocupación notable sobre los riesgos éticos de la IA presente en todo el cuerpo profesoral. Sin embargo, un análisis detallado muestra que en general no pasan de temores elementales: Básicamente, son temores a que el estudiante “apruebe haciendo trampa” sin haber construido los aprendizajes. Sin embargo, en mi opinión, no es allí donde está el verdadero riesgo.

El verdadero riesgo ético es la limitación a la libertad de elección, que surge como consecuencia de la transparentización de la IA, es decir la integración silenciosa y no percibida de algoritmos que orientan nuestras decisiones.

Pensemos esto: Si la IA recibe de Google Maps y Waze entregan el registro de secuencia de nuestra localización y tiempo en cada lugar.

Si la IA me elige las noticias que me muestra en los diarios en línea.

Si me elige los reels de Instagram y los memes que leeré.

Si me elige la próxima canción que escucharé cuando termine mi lista.

Si decide qué publicación leeré primero y cuál difícilmente me muestre.

Si, además, hace análisis de sentimiento de lo que escribo y registra mi estado de ánimo en cada interacción con personas.

Si yo elijo un reloj que monitoree mi pulso y mi respiración, y mis reacciones corporales cuando leo una noticia, cuando interactúo con alguien, cuando miro un anuncio.

Si la IA utiliza toda esta data que con inconciencia yo le entrego ¿Hasta dónde mis decisiones son mías… y hasta dónde quien me eligió hasta las noticias, las lecturas y las relaciones, está decidiendo por mí lo que compro, lo que argumento, lo que voto? Es la libertad de elección del ser humano la que está en juego cuando cedemos despreocupadamente todos nuestros datos y permitimos que la IA construya nuestros perfiles habilitando así la manipulación del ser humano por parte de quien maneje la Inteligencia Artificial.

¿Entonces qué deben hacer las universidades?

Creo que lo primero es crear una conciencia colectiva que evite los futuros distópicos para cualquier tecnología y para cualquier herramienta.

El sistema educativo tiene la responsabilidad ética y filosófica de educar para crear un futuro utópico y prevenir un futuro distópico y esto solo se logra a través de la generación de una conciencia colectiva. Ya lo hicimos con el cuidado del agua. Lo hicimos también con la conciencia de clasificación de residuos, o con la conciencia de la contaminación por los combustibles fósiles.

¿Qué aspectos puntualmente se deben regular ?

Unesco hace dos años ya tomó la iniciativa de convocar un equipo de expertos internacionales para trazar lineamientos de sugerencias y recomendaciones que partiendo de valores, establezca principios que orienten las políticas de cada Estado. De hecho uno de los protagonistas de ese trabajo fue el Dr. Andrés Merejo, un filósofo de la tecnología que es dominicano.

Aquí la lucha no es contra la herramienta. No se trata de tener temor, ni de entrar en pánico, ni de prohibir las tecnologías. Se trata de desarrollar desde el sistema educativo la conciencia colectiva que nos permita alejarnos del futuro distópico y acercarnos al futuro utópico en un escenario de transparentización de la IA.

¿Por dónde deben comenzar las instituciones educativas?

Creo que vamos a tener que retornar a fortalecer en los planes de estudio a las competencias duras (en especial la matemática, la estadística, el pensamiento computacional que nos permita comprender conceptualmente los algoritmos.

También es recomendable formar en competencias de utilización e incorporación de herramientas concretas de IA a las profesiones desde la propia curricular (utilizar en la formación lo que se utilizará profesionalmente).

Además, es imprescindible formar para las competencias del futuro análisis crítico, diagnóstico, selección de herramientas, selección de estrategias, evaluación de impactos de corto, mediano y largo plazo de cada una de ellas, capacidad de aprendizaje permanente, capacidad de trabajo en equipo, comunicación asertiva, comunicación multicultural y finalmente, crear una conciencia colectiva que evite los futuros distópicos para cualquier tecnología y para cualquier herramienta.