Enchanted LLM Avis
Publié par Augustinas Malinauskas on 2024-05-27🏷️ À propos: Enchanted is chat app for LLM researchers to chat with self hosted models. Enchanted supports Ollama API and all ecosystem models.
🏷️ À propos: Enchanted is chat app for LLM researchers to chat with self hosted models. Enchanted supports Ollama API and all ecosystem models.
par DitiPengi
I complained about not being able to use a regular HTTP address for my model. The app’s creator updated a fix a few days later, and now it works. Neat!
par Unsky_dev
I really enjoy to use this app, and the shortcut are good. Maybe try to add a setting to select model for specific shortcut.
par Amomocadiz
Franchement c'est gratuit et ca fonctionne super bien ! Je recommande de ouf !
Oui. Enchanted LLM est très sûr à utiliser. Ceci est basé sur notre analyse NLP (Traitement du langage naturel) de plus de 3 avis d'utilisateurs provenant de l'Appstore et la note cumulative de l"Aappstore de 4.7/5 . Score de sécurité Justuseapp pour Enchanted LLM Est 63.0/100.
Oui. Enchanted LLM est une application totalement légitime. Cette conclusion a été obtenue en passant 3 Enchanted LLM avis d'utilisateurs via notre processus d'apprentissage automatique NLP pour déterminer si les utilisateurs croient que l'application est légitime ou non. Sur cette base, Justuseapp Score de légitimité pour Enchanted LLM Est 100/100..
Enchanted LLM fonctionne la plupart du temps. Si cela ne fonctionne pas pour vous, nous vous recommandons de faire preuve de patience et de réessayer plus tard ou Contacter le support.
Enchanted is chat app for LLM researchers to chat with self hosted models.
The app is in early days, but had a long roadmap to be leading tool for LLM community running self hosted models.
Enchanted supports Ollama API and all ecosystem models.
Enchanted supports streaming and latest Chat API with conversation context.
Enchanted supports Markdown, therefore tables, lists and code will be nicely formatted.
It is necessary to have a running Ollama server to use this app and specify the server endpoint in app settings.
You can quickly switch between your models to test your prompts.