Dakarinfo

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici Manchettes, politique et culture françaises sur la chaîne d'information

Pourquoi OpenAI est de plus en plus difficile à faire confiance

Pourquoi OpenAI est de plus en plus difficile à faire confiance

Image composite du PDG d’OpenAI, Sam Altman, Edward Snowden et de l’ancien chef de la NSA, Paul Nakasone.
Getty Images

  • OpenAI a nommé l’ancien directeur de la NSA, Paul Nakasone, à son conseil d’administration.
  • L’embauche de Nakasone vise à renforcer la sécurité de l’IA mais soulève des inquiétudes quant à la surveillance.
  • Le groupe de sécurité interne de l’entreprise a également été dissous.

Il y a des gardes de sécurité secrets effrayants devant son bureau. Il vient de nommer à son conseil d’administration un ancien directeur de la National Security Agency. Son groupe de travail interne visant à promouvoir une utilisation sûre de l’intelligence artificielle a été dissous.

OpenAI semble de moins en moins ouvert chaque jour.

Dans sa dernière initiative surprenante, l’entreprise Vendredi a dit Il a nommé l’ancien directeur de l’Agence de sécurité nationale, Paul Nakasone, à son conseil d’administration.

En plus de diriger la NSA, Nakasone était à la tête du U.S. Cyber ​​​​Command, la division de cybersécurité du ministère de la Défense. OpenAI affirme que la nomination de Nakasone représente son « engagement en faveur de la sûreté et de la sécurité » et souligne l’importance de la cybersécurité à mesure que l’IA continue d’évoluer.

« Le dévouement d’OpenAI à sa mission correspond étroitement à mes valeurs et à mon expérience dans la fonction publique », a déclaré Nakasone dans un communiqué. « J’ai hâte de contribuer aux efforts d’OpenAI pour garantir que l’intelligence artificielle générale soit sûre et bénéfique pour les personnes du monde entier. »

READ  Novak Djokovic peut jouer en France selon les dernières règles de vaccination

Mais les critiques craignent que la nomination de Nakasone ne représente autre chose : la surveillance.

Edward Snowden, le lanceur d’alerte américain qui a divulgué des documents classifiés sur la surveillance en 2013, a déclaré dans une lettre : Partager sur X La nomination de Nakasone était une « trahison calculée des droits de chaque personne sur Terre ».

« Ils l’ont complètement masqué : ne faites jamais confiance à OpenAI ou à ses produits (ChatGPT, etc.) », a écrit Snowden.

En autre Commentaire sur X« L’intersection de l’intelligence artificielle et de l’océan de données de surveillance de masse accumulées au cours des deux dernières décennies placera des pouvoirs véritablement terribles entre les mains d’une poignée d’individus qui n’ont aucun compte à rendre », a déclaré Snowden.

D’un autre côté, le sénateur Mark Warner, démocrate de Virginie et président de la commission sénatoriale du renseignement, a qualifié la nomination de Nakasone de « énorme victoire ».

« Il n’y a personne dans la communauté de la sécurité, en général, qui soit plus respecté que lui », a déclaré Warner. Axios a dit.

L’expertise en sécurité de Nakasone pourrait être nécessaire chez OpenAI, car les critiques ont exprimé leur inquiétude quant au fait que des problèmes de sécurité pourraient l’exposer à des attaques.

OpenAI a licencié l’ancien membre du conseil d’administration, Leopold Aschenbrenner, en avril, après avoir envoyé une note détaillant un « incident de sécurité majeur ». Il a qualifié la sécurité de l’entreprise de « scandaleusement insuffisante » pour se protéger contre le vol par des tiers.

Peu de temps après, la superéquipe OpenAI – qui s’était concentrée sur le développement de systèmes d’IA alignés sur les intérêts humains – s’est brusquement dissoute après la démission de deux des meilleurs chercheurs en sécurité de l’entreprise.

READ  Elon Musk dit que Twitter va changer de logo, "au revoir à tous les oiseaux"

Jan Lake, l’un des chercheurs sortants, a déclaré qu’il était « en désaccord avec la direction d’OpenAI sur les priorités fondamentales de l’entreprise depuis un certain temps ».

Ilya Sutskever, scientifique en chef chez OpenAI, qui a initialement lancé l’équipe d’hyperalignement, s’est montré plus circonspect quant aux raisons de son départ. Mais des responsables de l’entreprise ont déclaré qu’il se trouvait sur un terrain fragile en raison de son rôle dans l’éviction ratée du PDG Sam Altman. Sutskever a désapprouvé l’approche agressive d’Altman en matière de développement de l’intelligence artificielle, qui a enflammé leur lutte pour le pouvoir.

Et comme si tout cela ne suffisait pas, même les habitants qui vivent et travaillent à proximité du bureau d’OpenAI à San Francisco affirment que l’entreprise commence à les refuser. dit le caissier de l’animalerie d’à côté Norme de San Francisco Que le bureau a une « atmosphère secrète ».

De nombreux employés d’entreprises voisines affirment que des hommes ressemblant à des agents de sécurité secrets se tiennent à l’extérieur du bâtiment, mais ne diront pas qu’ils travaillent pour OpenAI.

« [OpenAI] « Ce n’est pas un mauvais voisin », dit l’un d’eux. « Mais ils sont secrets. »