Google annonce une avancée majeure pour Gemini au MWC 2025
Google a marqué les esprits lors du Mobile World Congress (MWC) 2025 avec une annonce majeure concernant son intelligence artificielle. Le chatbot Gemini Live va intégrer la vision, permettant ainsi aux utilisateurs d’interagir avec l’IA en lui montrant leur environnement via la caméra de leur smartphone. Une évolution qui ouvre la porte à de nombreuses applications pratiques et interactives.
Une mise à jour majeure : Gemini Live intègre la vision
D’ici fin mars, une mise à jour majeure permettra aux utilisateurs de smartphones Pixel et Galaxy abonnés à Gemini Advanced (21,99 € par mois) d’activer la caméra de leur téléphone pour montrer à l’IA leur environnement. Cette innovation, issue du Project Astra présenté lors de la Google I/O 2024, vise à transformer Gemini en un assistant intelligent capable de traiter des informations visuelles en temps réel.
Les fonctionnalités phares incluent :
- Conseils en aménagement et décoration d’intérieur (choix de couleurs, organisation d’un espace...)
- Identification d’objets ou d’aliments pour proposer des idées de recettes
- Assistance pour assembler un meuble ou résoudre un problème mathématique
Des applications concrètes pour les professionnels du digital
Cette avancée technologique ne se limite pas aux particuliers. De nombreux secteurs pourraient bénéficier des capacités visuelles de Gemini :
- E-commerce et retail : identification rapide de produits, conseils en merchandising et optimisation de l’agencement des pages de vente en ligne.
- Marketing et création de contenu : analyse des visuels en temps réel pour améliorer la mise en page et les choix de couleurs.
- Éducation et formation : explication interactive de concepts nécessitant un contexte visuel.
- Travail à l’international : assistance à la traduction instantanée pour faciliter les interactions multilingues.
Un assistant vocal toujours plus performant
L’intégration de la vision dans Gemini n’est qu’une étape. Google ambitionne de faire du Project Astra l’assistant vocal principal de Gemini, avec une potentielle intégration dans des lunettes connectées. Cette évolution pourrait permettre une interaction plus naturelle et immersive avec l’IA.
Gemini 2.0 Flash : un modèle plus rapide et puissant
En parallèle, Google déploie Gemini 2.0 Flash, un modèle de langage (LLM) multimodal conçu pour améliorer :
- La compréhension linguistique
- Les interactions multilingues (prise en charge de plus de 45 langues)
- La fluidité des conversations (changement de langue sans modification des paramètres)
- La reconnaissance des accents et des dialectes
Vers une adoption plus large ?
Pour l’instant, ces nouvelles fonctionnalités restent réservées aux abonnés payants et aux utilisateurs Pixel et Galaxy. Toutefois, Google prévoit d’élargir leur accessibilité à d’autres plateformes, y compris iOS, dans un avenir proche.
Une IA toujours plus interactive et utile
Avec ces mises à jour, Google renforce la position de Gemini en tant qu’assistant personnel ultra-intelligent, capable d’interpréter simultanément du texte, du son et des images. Cette avancée rapproche un peu plus l’IA d’un modèle idéal, prêt à répondre aux besoins des utilisateurs en temps réel avec une précision accrue.
