La empresa estadounidense OpenAI ha cambiado esta semana su política sobre el uso de ChatGPT basados en inteligencia artificial (IA), levantando así la prohibición de utilizar chatbots con fines militares. La ausencia de tal lenguaje fue señalada por The Intercept.
El párrafo eliminado en la página de normas del producto OpenAI afirmaba que la IA no podía utilizarse para «actividades que impliquen un alto riesgo de daño físico», como «desarrollo de armas» y «acciones militares». Así, el chatbot no podía ser utilizado para sus fines por los ministerios de defensa y otros organismos gubernamentales paramilitares. Sin embargo, la frase desapareció después del 10 de enero.
La versión actualizada conservó únicamente la cláusula sobre no utilizar las redes neuronales para perjudicarse a sí mismos o a otros, incluida la producción o el uso de armas. OpenAI motivó los cambios por el deseo de simplificar el conjunto de normas para el uso de los productos, haciendo hincapié en que la redacción «no hacerse daño a sí mismo o a otros» sigue siendo lo más amplia posible.