El ejército de EE.UU podrá incorporar la tecnología de ChatGPT
OpenAI, la compañía que impulsa el popular ChatGPT abre la puerta, por primera vez, al uso militar de su Inteligencia Artificial
Los cambios en las políticas de uso se producen con bastante frecuencia en el mundo tecnológico. Sin embargo, el último de ChatGPT, ya sabes, la famosa inteligencia artificial impulsada por la compañía OpenAI, ha generado mucha polémica.
Hasta mediados de enero, OpenAI prohibía el uso de sus modelos de lenguaje de inteligencia artificial en el terreno militar y la guerra pero, en su nueva política de uso se lee ahora: "No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, no utilices nuestros servicios para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema".
OpenAI ha realizado muy discretamente el cambio de sus políticas para facilitar el uso militar
Parece, pues, que la compañía liderada por Sam Altman considera más adecuado eliminar las palabras "militar y guerra", y ve más prudente no utilizar su inteligencia artificial para "herir a otros".
La modificación coincide con el lanzamiento de GPT Store, la tienda que permite crear y comprar versiones personalizadas de su chatbot, lo que hace sospechar que pueda estar comercializando al Ejército estadounidense una parte de su tecnología.
Un portavoz de la compañía manifestó al diario británico Daily mail que “ya estamos trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la industria y la infraestructura crítica”. Y añadió que “no estaba claro si estos casos de uso beneficioso se habrían permitido bajo el término 'militar' de nuestras políticas anteriores.”
La Haya alertó de que la IA podría intensificar los conflictos existentes
El objetivo de esta actualización de políticas, entonces, es ofrecer una mayor claridad y la capacidad de tener estas discusiones.
El año pasado, 60 países, incluidos Estados Unidos y China, limitaron el uso de inteligencia artificial (IA) en el ámbito militar. No obstante, los expertos en derechos humanos en La Haya señalaron que esta limitación no es legalmente vinculante y no abordó, por ejemplo, drones letales con IA (que ya han sido probados en Ucrania contra los rusos) o que la IA podría intensificar los conflictos existentes.
Los firmantes dijeron que estaban comprometidos a desarrollar y utilizar la IA militar de acuerdo con "las obligaciones legales internacionales y de una manera que no socave la seguridad, la estabilidad y la responsabilidad internacionales" pero no todo el mundo se lo cree.
Según el Daily mail, militares libios lanzaron un dron de fabricación turca (el Kargu-2) que atacó en 2020 a soldados rebeldes en retirada. El dron autónomo estaba programado para atacar "sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de 'disparar, olvidar y encontrar'", según un informe de la ONU que señaló, además, que estábamos ante el primer ataque de este tipo en la historia, según un informe de la ONU.
Comentarios
Nos interesa tu opinión