El ABCD ético de la Inteligencia Artificial

“Para todas las cosas que tienen

una función o actividad se piensa en el bien

y el bien reside en la función.”

Aristóteles, Ética a Nicómaco

A. Principio

y fundamento

Me valgo de dos ideas de raigambre ética para adentrarme en el tema de lo ético en la inteligencia artificial (IA). Una de ellas la debo a David Ricardo. A propósito de la totalidad de objetos útiles de los que no valemos en cualquier civilización humana, el economista clásico británico tuvo el acierto de escribir que “las máquinas no son necesariamente buenas o malas”, pues todo depende del uso que se les dé.

La segunda aserción la tomo, ex autoritate, de Aristóteles. Según el Estagirita, el ser humano se manifiesta y realiza por medio de sus actividades; pero, esos actos son humanos, exclusivamente, si su finalidad deliberada y consciente es la felicidad y, su medio de realización, el bien.

Al conjugar ambas afirmaciones, confirmo el principio y fundamento ético de la IA:

La IA, -en tanto que intelecto reconocido como no natural-, se mantendrá en el ámbito de su programada utilidad artificial, siempre y cuando permanezca circunscrita al bien y a la felicidad a las que aspira todo lo que es y actúa de conformidad con la razón de ser de la naturaleza humana.

Ahora bien, si la IA operara de forma autónoma -llegando a ser el único utensilio que toma decisiones de manera independiente de la programación que lo diseñó y puso en funcionamiento- este fenómeno quitaría a los humanos el control de las cosas y, tal y como advierten expertos en la materia, deberíamos “detenerla de inmediato”. Frenarla en seco, de modo análogo al empleado cuando se encarrila un tren descarrilado, para reordenar una civilización que se aleja del bien y de la felicidad.

B. Seguimiento

La IA no es inocente. Ella puede hacernos la vida más llevadera e independiente, procurando la realización de nuestras mejores aspiraciones, en términos productivos y de versatilidad; o, hacer nuestra existencia más mísera, por ejemplo, favoreciendo una automatización excesiva en detrimento del aumento de personas más productivas.

Por consiguiente, para seguir valiéndonos de la IA en el dominio objetivo de nuestra vida social e iniciativas y labores cotidianas, se requiere estar atento a la principal orientación cívica:

La innovación y correspondiente aplicación de la IA -en medio del sinfín de sociedades que desdeñan lo inútil- han de ser directamente proporcionales al desarrollo y adopción de las mejores prácticas encaminadas a la obtención del mayor bienestar posible de todos, tanto los concernidos, como los afectados, en el tiempo.

De lo contrario, el propósito final de la eticidad cívica: el logro de más bienestar, no superará su versión más defectuosa; y, el mejor comportamiento humano, no dejará de ser una de las buenas intenciones que, de fiarnos de Dante Alighieri, conducen a las puertas del infierno.

C. La encrucijada mortal

El más reciente Índice del Instituto de IA Centrada en el Humano, de la Universidad de Stanford, confirma el exponencial auge y utilidad de tan simulada intelección. En ese contexto, para salvaguardar lo mejor de los adelantos que con ella se logran, conviene acordar ciertas regulaciones exclusivas al comportamiento ético de los humanos.

La antesala de esas reglas es que el fin de la IA no justifica los medios. Pero, entonces, si no es el fin, ¿qué los justifica?

La justificación ética del o de los medios empleados, de un lado, y del otro, el fin procurado por los seres humanos, depende -sin excepción- de la afinidad y convergencia de ambos lados, en términos de la mejoría procurada de la mano de la IA.

La segunda norma ética -relativa al uso y expansión de la IA- es de raigambre kantiana, pues cada persona debe ser considerada como un fin en sí mismo.

Cada sujeto no es ni debe ser tenido como vulgar trasto maleable, sometido a los efectos de la IA; y, aún menos, mera cosa doblegada a los intereses de poderosos señores de una artificialidad inútil, cuantas veces aliena de la libertad e igualdad natural de todo ser humano.

Ahora bien, puesto que el bien que debemos de realizar depende -en gran medida- de cómo lo justifiquemos, la tercera regla relativa a la utilidad y uso de la IA, nos advierte que todo hallazgo e implementación derivada de ella, está sujeta a la universalidad de las leyes objetivas de un Estado político y a la usanza organizacional de grupos e instituciones en los que nos desenvolvemos.

El potencial valor útil de la IA, en la medida en que da razón al comportamiento humano en sociedad, se justifica siempre y cuando sus productos y consecuencias sean equitativamente inclusivos, para más ganancia y mejoría de la calidad de vida en sociedad.

Así, pues, en términos prácticos, se impone el axioma por excelencia de la eticidad humana en cualquier sociedad humana de naturaleza histórica:

Entre dos productos o servicios buenos derivados de la IA, debe ser escogido el mejor para fines del bien común; y, entre dos malos, de ser ineludibles, el menos malo.

D. Promoción recíproca

La D del ABCD ético de la IA es la promoción recíproca. En esta culmina el libre usufructo y sustentabilidad de su propia utilidad ética, que es mucho más que exclusivamente material y tecnológica. Gracias al valor supremo de la promoción recíproca, los momentos anteriores se superan en el bien común de todos los concernidos por efecto, natural o artificial, de la inteligencia humana.

Bajo su égida, podremos contribuir a un marco de referencia regulatorio del uso cultural de la IA, tanto en el dominio de cada Estado nación, como por medio de la adopción de un tratado vinculante de la comunidad internacional, dados los riesgos que implican su adopción indiscriminada. Privados de tales resguardos, seguiremos expuestos al imperio de la desdicha; en ésta, el interés y la fortuna de unos cuantos figurines del poder y del comercio son erguidos sobre la infelicidad y el malestar de todo y todos los demás.

De ahí el alcance y significado de lo hasta aquí escrito. Si menospreciáramos el ABCD ético que encauza la Inteligencia Artificial a nuestro favor, habría que inhabilitarla de una vez y por todas; además de resolver por otro medio el siguiente epigrama:

“Querida posteridad

si no te has vuelto más

justa o pacífica

y generalmente más racional de lo que éramos

entonces que te lleve

el diablo.

Yo soy o era tu

Albert Einstein.”

1 Profesor-Investigador del Centro de Estudios P. Alemán, SJ., de la PUCMM.