cuenta maliciosas openai

OpenAI ya cancela cuentas maliciosas

OpenAI ya cancela cuentas maliciosas

Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.
Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.

OpenAI ya cancela cuentas maliciosas

Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.

Este mes desde OpenAI nos traen novedades en cuanto a cancelación de cuentas maliciosas y nuevas funcionalidades.

OpenAI ha identificado cuentas asociadas a actores maliciosos y procedió a su cancelación.

Ponen en conocimiento que se desarticularon a «5 Actores Maliciosos» afiliados a estados:

  • 2 amenazas de China: Charcoal Typhoon y Salmon Typhoon.
  • 1 amenaza de Irán: Crimson Sandstorm.
  • 1 amenaza de Corea del Norte: Emerald Sleet.
  • 1 amenaza de Rusia: Forest Blizzard.

En el blog de Microsoft se detalla toda la información relacionada con la investigación sobre amenazas emergentes en la era de la IA.

Tanto para OpenAI como para Microsoft, es esencial divulgar estos hallazgos para revelar y poner en evidencia los primeros indicios de uso indebido que se detectan.

La investigación muestra que los actores de amenazas utilizan la tecnología LLM como una herramienta de productividad ofensiva.

La asociación entre Microsoft y OpenAI tiene como objetivo asegurar el uso seguro y responsable de tecnologías de IA como ChatGPT

Todas estas noticias ponen el foco en la necesidad de adoptar estándares éticos para proteger a la comunidad del mal uso potencial.

Microsoft anuncia la necesidad de cumplir con la «Orden ejecutiva sobre Inteligencia Artificial segura y fiable» – White House’s Executive Order on AI 

Principios rectores de IA para Microsoft

  1. Identificación y acción contra el uso malicioso de IA por parte de actores de amenazas.
  2. Notificación a otros proveedores de servicios de IA.
  3. Colaboración con stakeholders para intercambiar información sobre el uso de IA por actores de amenazas,
  4. Transparencia sobre las acciones tomadas bajo estos principios.

Microsoft y OpenAI protegen conjuntamente las plataformas de IA

Mediante la monitorización de los actores de amenazas, el uso de la autenticación multifactor (MFA), el establecimiento de defensas basadas en el modelo Zero Trust y el intercambio continua de información sobre amenazas entre ambas plataformas, se busca reforzar significativamente la seguridad.

Se trata de sentar las bases para un enfoque múltiple de la seguridad de la IA.

Para seguir la actualidad de las noticias más interesantes sobre robótica colaborativa e inteligencia artificial, no dudes en visitar nuestras Últimas noticias.

Comparte esta noticia si crees que puede ser interesante. Gracias por leernos.

Entradas relacionadas

Documentación de código en piloto automático

Documentación de código en piloto automático

La documentación es algo que todos sabemos que es importante, pero, si soy honesto, en ocasiones se convierte en una tarea tediosa y, sobre todo, aburrida. En mi experiencia, he visto demasiados proyectos con código increíblemente útil…

Abrir chat
Hola 👋
¿En qué podemos ayudarte?