Santo Domingo 28°C/28°C few clouds

Suscribete

OpenAI pagará a la gente que encuentre errores en sus servicios, como ChatGPT

Las recompensas van desde 200 dólares por "hallazgos de baja gravedad" hasta 20.000 por "descubrimientos excepcionales"

El logotipo de OpenAI se ve en un teléfono móvil frente a la pantalla de una computadora que muestra la salida de ChatGPT, el martes 21 de marzo de 2023, en Boston. (Foto AP/Michael Dwyer, archivo)

El logotipo de OpenAI se ve en un teléfono móvil frente a la pantalla de una computadora que muestra la salida de ChatGPT, el martes 21 de marzo de 2023, en Boston. (Foto AP/Michael Dwyer, archivo)

La compañía de investigación de inteligencia artificial (IA) OpenAI anunció este miércoles que dará recompensas económicas de entre 200 y 20.000 dólares a aquellos que reporten errores en los servicios que ofrece la empresa, entre ellos su chatbot con IA ChatGPT.

"Creemos que la transparencia y la colaboración son cruciales para abordar esta realidad. Es por eso que invitamos a la comunidad global de investigadores de seguridad, piratas informáticos éticos y entusiastas de la tecnología para que nos ayuden a identificar y abordar las vulnerabilidades en nuestros sistemas", anota en un comunicado la compañía liderada por Sam Altman.

Las recompensas van desde 200 dólares por "hallazgos de baja gravedad" hasta 20.000 por "descubrimientos excepcionales", y los informes se pueden enviar a través de la plataforma de ciberseguridad Bugcrowd.

OpenAI indica que estos pagos se hacen para "incentivar las pruebas y como muestra de agradecimiento".

No obstante, no se darán recompensas por liberar ChatGPT de su programa fuente -término conocido como jailbreak- o hacer que el chatbot genere código o texto malicioso.

“Los problemas relacionados con el contenido de las indicaciones y respuestas del modelo están estrictamente fuera del alcance y no serán recompensados”, indica la página Bugcrowd de OpenAI.

Desde que ChatGPT se lanzó al público, varios usuarios han subido a las redes ejemplos de conversaciones en la que el chatbot daba respuestas perturbadoras.