Santo Domingo 30°C/30°C light rain

Suscribete

China quiere ajustar la inteligencia artificial a la ideología del Partido Comunista

La empresa china Baidu desarrolla actualmente su propio programa de inteligencia artificial destinada al público.

La empresa china Baidu desarrolla actualmente su propio programa de inteligencia artificial destinada al público.Radio Francia Internacional

El gobierno chino busca limitar la inteligencia artificial (IA) para que no se convierta en una herramienta de "subversión contra el poder del Estado", indica un documento oficial. 

Por su parte, las empresas chinas trabajan para desarrollar sus propios robots de IA para contrarrestar el auge de ChatGPT.

El régimen chino indica que llevará a cabo una “evaluación de seguridad” de los programas de inteligencia artificial (IA) en medio del intento de los gigantes chinos de internet de diseñar instrumentos similares al ChatGPT.

Lanzado en noviembre, el robot conversacional ChatGPT ha llamado la atención del mundo por su capacidad de responder preguntas elaboradas a partir de datos disponibles en Internet.

El sistema no está disponible en el país, pero ChatGPT es objeto de innumerables artículos y debates en las redes sociales, al tiempo que los gigantes tecnológicos chinos compiten por diseñar herramientas equivalentes.

Baidu, conocido por su motor de búsqueda, fue uno de los primeros grupos chinos en posicionarse en la IA seguido por Tencent (internet y videojuegos) y Alibaba (comercio electrónico).

China quiere regular la llamada inteligencia artificial generativa, en pleno auge, y antes de ponerse a la venta, los productos que utilicen esta tecnología tendrán que "someterse a una inspección de seguridad", según un proyecto de reglamento publicado el martes por la Administración del Ciberespacio de China.

Los contenidos generados por la inteligencia artificial deben "reflejar los valores socialistas fundamentales y no incluir contenido relacionados con la subversión del poder del Estado", dice el proyecto de reglamento.

Y es que “la inteligencia artificial, la puedes aplicar a censurar más a la gente o a censura rmás el contexto de la información del propiopaís”, apunta Mikel Rufián, consultor en ciberseguridad.

“Pero la IA también puede saltar esos controles que pueda realizar el estado en China, más restrictivo en ese aspecto. Se puede utilizar la inteligencia artificial tanto para saltar la censura del Estado como para que pueda censurar más a la población”, detalla Rufián a RFI.

China aspira a convertirse en líder mundial de la inteligencia artificial en 2030, lo que supone revolucionar numerosos sectores, como la industria del automóvil y la medicina.

El principal reto para los desarrolladores chinos en la carrera por la inteligencia artificial es idear un robot conversacional que funcione bien pero que no se salga del estricto marco de los contenidos permitidos.

China vigila estrechamente internet y sus medios de comunicación. Los censores eliminan cada día contenidos que critican la política estatal o que puedan crear malestar.

“No recaer en esta tecnología al 100%”

El robot GPT, capaz de analizar grandes cantidades de datos en un instante, ha despertado inquietudes de que a futuro pueda sustituirse a ciertas profesiones como periodistas, programadores informáticos o docentes.

“Es cierto que, en la medicina, por ejemplo, si el modelo inteligencia artificial puede leerse los 1000 último expediente sobre una enfermedad, para ver investigar una vacuna, por ejemplo, pues va a ser mucho más rápida, mucho más ágil que lo que pueda hacer una persona humana” ejemplifica Mikel Rufián.

Sin embargo, “Actualmente, la inteligencia artificial tiene que ser supervisada”, recuerda el experto”.

“Al día de hoy, la IA no se comporta al cien por cien como un humano. Es un conjunto de algoritmos que al final lo que hace es pensar como un humano, pero esté a su vez, se alimenta de bases de datos y datos que nosotros le podamos introducir entonces, en función un poco de esas bases de datos que le podamos introducir, pues se va a ir como entrenando ese modelo para hacer diferentes tipos de cuestiones”, detalla a RFI.

“Lo que habría que hacer es lo mejor, no recaer en esta tecnología al cien por cien, porque es cierto que, si le caemos al cien por cien, pues podemos ser perfectamente manipulados o ir en piloto automático toda la ciudadanía”, advierte Rufián.