OpenAI dispara las alarmas sobre sus próximos modelos de IA: ¿Qué riesgos conllevan para la seguridad en línea?
Los próximos modelos de IA de OpenAI podrían suponer un riesgo elevado para la seguridad en línea, según un reciente informe de la empresa.

La empresa de inteligencia artificial OpenAI ha lanzado una serie de advertencias sobre los riesgos potenciales que conllevan sus próximos modelos de IA. Según un reciente informe, estos modelos podrían ser utilizados por hackers para realizar ciberataques de manera más efectiva y precisa.
El riesgo de los ciberataques
Los expertos de OpenAI han explicado que los nuevos modelos de IA podrían ser utilizados para llevar a cabo ciberataques de manera autónoma, sin necesidad de conocimientos previos por parte de los atacantes. Esto se debe a las altas capacidades de la IA para realizar tareas de forma autónoma durante más tiempo.
Las pruebas de OpenAI
La propia OpenAI ha realizado pruebas para comprobar el riesgo de utilizar sus modelos para realizar ciberataques. Los resultados arrojaron que el modelo GPT-5 obtuvo un 27% de puntuación en una prueba de «captura la bandera», mientras que el modelo GPT-5.1 Codex Max obtuvo un resultado del 76%.
Esto ha llevado a la empresa a advertir sobre los posibles riesgos que conllevan sus modelos de IA y a trabajar en la mejora de la detección de estos riesgos. OpenAI ha confirmado que está creando un Consejo de Riesgo Fronterizo con expertos para colaborar estrechamente en la evaluación de los riesgos relacionados con sus modelos de IA.
¿Qué puede afectar a los usuarios?
Uno de los mayores inconvenientes es el crecimiento en los ciberataques y estafas. Los usuarios deben ser conscientes de los riesgos potenciales y tomar medidas para protegerse en línea. Esto incluye ser cautelosos con los enlaces y archivos adjuntos sospechosos, así como utilizar contraseñas seguras y actualizar regularmente el software de seguridad.
Explora más noticias en nuestra sección: Tecnología





