Les fonctions d'IA de nos smartphones vont vite devenir payantes et c'est peut-être tant mieux
Samsung fait beaucoup parler de lui avec les fonctions IA de ses nouveaux smartphones Galaxy S24. Des fonctions regroupées sous le nom de Galaxy AI qui pourraient même devenir payantes à l'avenir. On peut certes critiquer une énième vague de modèles d'abonnement et de microtransactions. Mais peut-être que rendre les fonctions IA de nos smartphones payantes n'est pas une si mauvaise chose que ça. Je vous explique pourquoi, selon moi.
L'intelligence artificielle effectue en quelques secondes le travail de plusieurs heures. Mais pour les tâches plus complexes, comme le traitement d'images ou même de vidéos, ça ne fonctionne pas (encore) en local sur nos appareils. Faute de puissance de calcul disponible, les données multimédia ou les instructions textuelles sont envoyées des smartphones et des ordinateurs portables vers le cloud, où elles sont traitées sur des serveurs avant d'être retransmises sur les appareils. Un processus Ô combien énergivore!
- Consultez notre tuto pour retoucher vos photos comme un pro avec Galaxy AI
L'IA, ça consomme comme jaja
Selon diverses études, le web a déjà dépassé le transport aérien mondial en termes d'émissions de CO2 au cours de la dernière décennie. Et l'humanité y est parvenue sans avoir recours à l'intelligence artificielle à grande échelle. Sans les modèles d'IA qui traitent les données dans le cloud et qui doivent être entraînés avant d'obtenir le tout premier résultat, ce qui nécessite des dépenses de calcul et d'énergie colossales. Et bien sûr, chaque exécution des modèles d'IA implique également une nouvelle dépense de calcul.
Pour vous donner un ordre d'idée, une recherche Google équivaut à environ 0,2 g d'émissions de CO2, alors qu'un seul message envoyé à ChatGPT équivaut déjà à 4,32 g de CO2 en cours d'exécution, soit environ 20 fois plus, selon les calculs de Piktochart. Une seule image générée par Stable Diffusion génère également 1,6 g de CO2- bien que l'étude correspondante ne mentionne malheureusement pas les conditions générales telles que la résolution.
L'entraînement initial des modèles d'IA représente également un effort considérable. Selon une étude de Stanford (PDF), l'équivalent en CO2 de l'entraînement de ChatGPT 3 avec 175 billions de paramètres est d'environ 300.000 kg, la consommation étant naturellement plus élevée pour les modèles plus élaborés.
Ce qui est indiqué ici comme équivalent CO2 vise fortement l'empreinte écologique, mais a bien sûr aussi une composante économique. Si l'on considère uniquement le coût de l'électricité, les 300.000 kg de CO2 de la formation ChatGPT-3 correspondent à une consommation d'énergie de 1287 MWh. Si le prix de l'électricité est de 0,30€/ kWh, cela représente 386.100 euros- ou suffisamment d'énergie pour faire 200 fois le tour de la Terre avec une Tesla Model 3, au sol bien sûr. Et qui va payer?
Protection des données: AI, ça rime aussi avec spy (ça marche mieux en anglais)
Si le service est gratuit, vous êtes le produit. Google, Facebook et consorts sont gratuits parce que les opérateurs Alphabet et Meta gagnent de l'argent sur le dos (ou sur les données) des utilisateurs. Sur la base des recherches et des likes, des profils sont créés et des espaces publicitaires ciblés sont vendus.
Mais qu'advient-il de toutes les données que nous envoyons à ChatGPT et autres? Qu'advient-il des photos que nous envoyons dans le cloud pour les retoucher, et donc à travers le monde? Ou toutes les données que nous partageons avec la prochaine génération d'assistants vocaux encore plus puissants via une enceinte connectée, une montre connectée ou une bague connectée?
Une étude de l'Université de Washington ne vient pas vraiment apaiser ces craintes. Elle révèle, par exemple, que les données que nous partageons avec Alexa, l'assistant vocal d'Amazon, sont également transmises à 41 fournisseurs tiers à des fins publicitaires en 2022. ChatGPT utilise également les conversations des utilisateurs pour améliorer son modèle d'IA.
Souvenez-vous, lorsque vous vous êtes initialement connecté à ChatGPT, vous avez au moins laissé votre numéro de téléphone. La politique de confidentialité d'Open AI stipule également que l'entreprise peut partager vos données personnelles avec des tiers sans notification préalable.
Google- dont les modèles d'IA sont également utilisés par Samsung pour son Galaxy AI- écrit entre autres dans sa politique de confidentialité:
Nous utilisons vos interactions avec des modèles et des technologies d'IA tels que Bard pour développer, former, optimiser et améliorer ces modèles afin qu'ils répondent mieux à vos demandes. Nous les utilisons également pour mettre à jour les classificateurs et les filtres afin d'améliorer, par exemple, la sécurité, la compréhension de la langue et la précision.
Les conditions d'utilisation (en anglais) de Google AI for Developers sont plus claires:
Afin d'améliorer la qualité et d'optimiser nos produits, des contrôleurs humains peuvent lire, commenter et traiter vos entrées et sorties API. Google prend des mesures pour protéger votre vie privée dans le cadre de ce processus. Ces mesures consistent notamment à séparer ces données de votre compte Google et de votre clé API avant qu'elles ne soient consultées ou commentées par les auditeurs. Ne transmettez pas d'informations sensibles, confidentielles ou personnelles aux services.
Cette prudence n'est pas le fruit du hasard. Au cours des derniers mois, il a été signalé à plusieurs reprises que des données d'entraînement pouvaient être ré-extraites des modèles d'IA. Par exemple, en demandant aux utilisateurs de répéter indéfiniment le même mot, ChatGPT a fini par "fuir" les données d'entraînement- il est d'ailleurs intéressant de noter que c'est DeepMind de Google qui a participé à une étude sur le sujet.
Que le fournisseur le veuille ou non, lorsque nous utilisons des services d'IA, nous finissons par les payer- peut-être même très cher. J'espère alors que des modèles d'abonnement ou de paiement à l'utilisation me permettront de payer pour des produits basés sur l'IA. L'essentiel est que je reçoive en échange des conditions d'utilisation claires et une politique de confidentialité rigide qui exclut explicitement le partage de mes données.
Bien sûr, il y a aussi le "risque" que les fournisseurs demandent de l'argent pour leurs services et finissent par négliger nos données ou les revendre délibérément.
Bien sûr: en même temps, il y a aussi le "risque" que les fournisseurs demandent de l'argent pour leurs services et finissent tout de même par négliger nos données ou les revendre intentionnellement. Dans tous les cas, lorsque les offres sont payantes, on y regarde de plus près, on est plus vigilant et ça poussera peut-être les fabricants à prendre moins de libertés avec nos données. Peut-être.