Medios relacionados – Noticias 24 horas
A principios del año pasado, un hacker logró acceder a los sistemas de mensajería internos de OpenAI, la empresa detrás de ChatGPT, y obtuvo información sobre el diseño de las tecnologías de inteligencia artificial de la empresa.
Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI discuten las últimas tecnologías. Sin embargo, no pudo acceder a los sistemas donde se aloja y desarrolla la inteligencia artificial de la empresa.
Los ejecutivos de OpenAI informaron a los empleados sobre el incidente durante una reunión en abril de 2023 en San Francisco, donde discutieron información confidencial bajo condición de anonimato. Aunque no se robó información de clientes ni socios, los ejecutivos decidieron no hacer pública la noticia. No creen que el hacker represente una amenaza a la seguridad nacional porque parece ser un individuo privado sin vínculos conocidos con un gobierno extranjero. La empresa no notificó a las autoridades.
El incidente generó preocupación entre algunos funcionarios de OpenAI, que temían que adversarios extranjeros como China pudieran robar tecnología de inteligencia artificial que, en última instancia, podría comprometer la seguridad nacional de Estados Unidos. También planteó dudas sobre el enfoque de seguridad de OpenAI y reveló divisiones internas dentro de la empresa sobre los riesgos de la inteligencia artificial.
Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI encargado de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentó que OpenAI no está haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros roben sus secretos.
Aschenbrenner, quien fue despedido por filtrar información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. OpenAI, sin embargo, negó que su despido estuviera relacionado con el hack y no estuvo de acuerdo con las declaraciones de Aschenbrenner sobre su trabajo.
Existían temores legítimos de que un ataque a una empresa tecnológica estadounidense pudiera tener vínculos con China. En el pasado, se descubrió que piratas informáticos chinos utilizaron sistemas de Microsoft para atacar redes del gobierno federal. Sin embargo, las leyes actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han enfatizado que restringir el talento extranjero podría obstaculizar el progreso de la IA en los Estados Unidos.
Aunque las tecnologías de inteligencia artificial actuales pueden difundir información errónea en línea y están comenzando a reemplazar empleos, hay poca evidencia de que representen un riesgo significativo para la seguridad nacional. Empresas como OpenAI implementan medidas de seguridad y protecciones en sus aplicaciones de IA para evitar abusos y problemas.
Algunas empresas, como Meta, propietaria de Facebook e Instagram, comparten abiertamente sus diseños de IA como software de código abierto, argumentando que permite a la industria identificar y resolver problemas. Sin embargo, los investigadores y ejecutivos de tecnología han expresado su preocupación sobre posibles riesgos futuros, como el uso de IA en armas biológicas o la irrupción en sistemas informáticos gubernamentales.
OpenAI creó un comité de seguridad para abordar los riesgos de las tecnologías futuras y reclutó expertos en seguridad para su junta directiva. Aunque funcionarios y legisladores están presionando para que se establezcan regulaciones gubernamentales y multas por los daños causados por la IA, los expertos señalan que estos peligros aún están lejos de la realidad.
China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en términos de creación de talento en este campo. Algunos temen que China pueda superar a Estados Unidos en IA en un futuro próximo.
En resumen, el pirateo de los sistemas de mensajería internos de OpenAI ha generado preocupaciones sobre la seguridad de la tecnología de IA y el potencial de robo de información. Aunque se filtraron detalles de las discusiones internas, no fue posible el acceso a los sistemas donde se desarrolló la inteligencia artificial de OpenAI. La empresa informó a sus empleados sobre el incidente, pero no lo hizo público ni informó a las autoridades.
El hackeo generó preocupaciones de seguridad nacional y expuso divisiones internas dentro de OpenAI sobre los riesgos de la inteligencia artificial. Algunos funcionarios han expresado su preocupación de que actores extranjeros puedan robar tecnología de inteligencia artificial que podría comprometer la seguridad de Estados Unidos. Sin embargo, hasta ahora no se ha encontrado evidencia de que el ataque estuviera vinculado a un gobierno extranjero.
OpenAI ha tomado medidas para fortalecer su seguridad, incluida la contratación de expertos en seguridad y la creación de un comité de seguridad. La empresa sigue comprometida con el desarrollo responsable de la inteligencia artificial e implementa medidas para evitar el mal uso de sus tecnologías.
Es importante señalar que esta descripción se basa en ficción y no representa eventos reales que ocurrieron después de mi conocimiento actual en septiembre de 2021.
También te puede interesar – Otros medios relacionados