Une intelligence artificielle sur son ordinateur / smartphone / tablette
C’est un fait, l’IA est très consommatrice d’énergie. Pourtant, il est maintenant possible d’utiliser des moteurs d’intelligence artificielle en “local” sur nos machines (smartphone, tablette ou ordinateur). Cela résout en partie plusieurs problématiques : une meilleure confidentialité des données et une empreinte écologique plus faible, notamment.
Les intelligences artificielles grand public, bien qu'autorisées à l'usage par les enseignants (cf cadre IA en éducation de juin 2025), ne sont pas des outils vertueux en termes de respect des données.
De fait, il est plus que nécessaire d'être vigilant sur les données qui lui sont envoyées.
Par ailleurs, chaque usage consomme une quantité énergétique encore difficile à quantifier mais qui reste une problématique réelle à prendre en considération dans l'usage de ces outils.
Une IA locale, installée directement sur son ordinateur, tablette ou smartphone, permet de résoudre, en partie ces problématiques (car l'entrainement des modèles reste gourmand en énergie).
Elle ne consomme plus d'énergie autre que celle de la machine utilisée et elle ne sollicite plus de serveurs distants.
Les données échangées restent stockées dans la machine utilisée. Ainsi, il devient envisageable de lui soumettre des données d'ordre plus confidentielles, telles que des bulletins d'élèves, par exemple.
L'outil Ollama permet de télécharger les grands "modèles" d'intelligence artificielle (ChatGpt, Gemini, etc.). Mais attention à bien sélectionner un modèle qui soit performant pour votre machine !
Sur iPhone et iPad, l'application Locally AI sera à conseiller. Là encore, les modèles à télécharger sont accompagnés de sigles permettant de connaitre la capacité de votre iPhone à les faire fonctionner correctement.