
MobileLLM
Chatbot, fonctionnant avec Llama 3.3, DeepSeek-R1, Gemma 3, qwen, mistral localement.
Informations Sur L'application
Description De L'application
Analyse Et Revue Des Applications Android: MobileLLM, Développée Par Playstar. Inscrit Dans La Catégorie Outils. La Version Actuelle Est 1.0.0, Mise À Jour Le 09/04/2025 . Selon Les Avis Des Utilisateurs Sur Google Play: MobileLLM. Atteint Plus De 42 Installations. MobileLLM A Actuellement 1 Revues, Note Moyenne 5.0 Étoiles
MobileLLM fonctionnant avec Llama 3.3, DeepSeek-R1, Gemma 3, Phi et d'autres modèles de langages volumineux populaires sur votre téléphone, vous pouvez discuter avec LLM localement et en privé sans réseau.Supporte le modèle de vision comme Gemma 3, llava.
Soyez un peu patient lorsque vous téléchargez de gros modèles.
Principales caractéristiques :
- Chat hors ligne : interagissez avec des modèles d'IA avancés directement sur votre appareil sans avoir besoin d'une connexion Internet.
- Modèle LLM populaire intégré : Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, llava, mistral
- Synthèse vocale, prononcez la réponse comme vous le souhaitez.
- Historique des discussions enregistré sur votre téléphone, aucun téléchargement de données sur Internet pour votre confidentialité.
Nous Proposons Actuellement La Version 1.0.0. Il S'agit De Notre Dernière Version La Plus Optimisée. Il Convient À De Nombreux Appareils Différents. Téléchargement Gratuit Directement Apk Depuis Le Google Play Store Ou D'autres Versions Que Nous Organisons. De Plus, Vous Pouvez Télécharger Sans Enregistrement Et Aucune Connexion Requise.
Nous Avons Plus Que Des Appareils Disponibles 2000+ Pour Samsung, Xiaomi, Huawei, Oppo, Vivo, Motorola, LG, Google, OnePlus, Sony, Tablet ... Avec Autant D'options, Il Est Facile Pour Vous De Choisir Des Jeux Ou Des Logiciels Qui Correspondent À Votre Appareil.
Il Peut Être Utile S'il Y A Des Restrictions De Pays Ou Des Restrictions Sur Le Côté De Votre Appareil Sur Le Google App Store.
Quoi De Neuf
First version MobileLLM, run LLM on your phone locally