Nieuw: Dagelijks AI-nieuws — blijf op de hoogte met AI Vandaag Lees meer
🦙

Ollama

🔓 Open source

Draai grote taalmodellen lokaal via een eenvoudige CLI en API

Open SourceLokaalCLIPrivacy

Over Ollama

Ollama maakt het eenvoudig om populaire open-source LLMs zoals Llama 3, Mistral en Gemma lokaal te draaien via een eenvoudige CLI. Het biedt ook een OpenAI-compatibele API zodat bestaande tools direct kunnen aansluiten op je lokale modellen.

Voordelen

  • Extreem eenvoudig te installeren en gebruiken
  • Brede modelondersteuning (Llama, Mistral, Gemma, etc.)
  • OpenAI-compatibele REST API
  • Volledig offline — geen internetverbinding nodig

Beperkingen

  • Vereist krachtige hardware voor grote modellen
  • Beperktere mogelijkheden dan cloud-modellen

Privacy & Security

Alle data blijft lokaal op je machineGeen telemetrie of datadelingOpen source — volledig controleerbare code