Danger Google Gemini

Google : un changement inquiétant dans la manière dont il pourrait utiliser l’IA

Google a récemment mis à jour ses principes éthiques en matière d’intelligence artificielle (IA), supprimant des engagements qui interdisaient l’usage de cette technologie pour le développement d’armes et de systèmes de surveillance. Cette décision marque un tournant majeur pour l’entreprise et suscite des réactions mitigées, notamment parmi ses employés et les défenseurs des droits humains.

Une suppression discrète des interdictions éthiques

Depuis 2018, Google s’était engagé à ne pas développer d’IA pour certaines applications sensibles, notamment les armes, la surveillance massive et toute technologie susceptible de causer du tort ou de violer les droits humains et le droit international. Ces restrictions avaient été mises en place après la controverse entourant le projet Maven, une collaboration entre Google et le Pentagone sur l’analyse d’images de drones militaires. Face aux protestations internes, Google avait alors renoncé à renouveler ce contrat et adopté des principes éthiques stricts pour l’IA.

Désormais, ces engagements ne figurent plus dans la nouvelle version des principes de Google. L’entreprise se contente d’indiquer qu’elle appliquera une supervision humaine appropriée et mettra en place des mécanismes d’évaluation pour minimiser les impacts négatifs de l’IA. Cette modification discrète a été signalée par un simple message sur un blog de l’entreprise, renvoyant vers une page mise à jour sur l’IA.

Un repositionnement stratégique dans un contexte géopolitique tendu

Selon James Manyika, vice-président de Google, et Demis Hassabis, PDG de Google DeepMind, cette révision était nécessaire pour s’adapter à l’évolution rapide de l’IA et aux nouvelles réalités géopolitiques. Ils estiment que les démocraties doivent prendre la tête du développement de cette technologie, en mettant en avant des valeurs comme la liberté, l’égalité et le respect des droits humains.

Cette décision intervient alors que Google investit massivement dans l’IA. L’entreprise prévoit de dépenser 75 milliards de dollars en 2024 dans ce domaine, un chiffre bien supérieur aux prévisions des analystes. Elle entend ainsi renforcer sa position face à des concurrents comme OpenAI, Microsoft et Meta, tout en développant de nouvelles applications d’IA dans des secteurs comme la cybersécurité, la santé et la défense.

Google défend une approche responsable de l’IA

Dans son billet de blog, Google a détaillé sa vision d’une IA responsable et a présenté son Rapport sur les progrès de l’IA responsable 2024. L’entreprise met en avant son engagement à réduire les risques liés à l’IA grâce à des protocoles de sécurité renforcés.

Parmi les initiatives mises en place figure la mise à jour de son Frontier Safety Framework, un cadre de sécurité destiné à anticiper et atténuer les dangers liés aux modèles d’IA avancés, comme Gemini 2.0. Ce cadre inclut désormais :

  • Des recommandations pour une sécurité renforcée, afin d’éviter l’exfiltration de données sensibles.
  • Un protocole d’atténuation des risques liés au déploiement, visant à empêcher toute utilisation abusive des capacités critiques de l’IA.
  • Une prise en compte du risque d’alignement trompeur, qui pourrait voir une IA autonome contourner les contrôles humains.

Google affirme également que sa nouvelle approche s’appuie sur trois piliers fondamentaux :

  1. Innovation audacieuse : développer une IA capable de stimuler la créativité, la recherche scientifique et le bien-être humain.
  2. Développement et déploiement responsables : intégrer la gestion des risques tout au long du cycle de vie de l’IA.
  3. Collaboration mondiale : travailler avec des institutions académiques et gouvernementales partageant des valeurs démocratiques.

Des inquiétudes parmi les employés et les défenseurs des droits humains

Si Google insiste sur son engagement en faveur d’une IA éthique et encadrée, cette mise à jour a suscité des préoccupations au sein de l’entreprise et au-delà. De nombreux employés expriment leur inquiétude quant à la possibilité que Google collabore désormais plus ouvertement avec des acteurs militaires et sécuritaires.

Parul Koul, ingénieure logicielle chez Google et présidente du syndicat Alphabet Workers Union, a dénoncé cette évolution comme une trahison des valeurs affichées par l’entreprise. Elle regrette que cette décision ait été prise sans consultation des employés ni du public, malgré l’opposition historique des salariés de Google à toute implication dans des projets militaires.

Du côté des experts en éthique de l’IA, certains alertent sur le risque que Google ouvre la voie à des utilisations controversées de ses technologies. L’IA pourrait être intégrée dans des systèmes de surveillance de masse, d’armes autonomes ou de cyberdéfense offensive, sans garde-fous suffisants pour prévenir d’éventuels abus.

Une stratégie risquée pour l’image de Google

Avec ce revirement, Google prend le risque d’écorner son image publique et de raviver les tensions internes. L’entreprise, qui avait autrefois pour devise « Don’t be evil » (Ne soyez pas malveillant), semble désormais adopter une approche plus pragmatique et orientée vers les opportunités économiques et stratégiques.

Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles similaires