Tag suchen

Tag:

Tag llm_sprachmodelle

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten 31.08.2025 17:10:51

mistral qdrant llm sprachmodelle datenbanken vektordatenbank ollama gemma llama llm docker filemaker
In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponente... mehr auf markus-schall.de

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac 20.08.2025 15:39:23

llama llm ollama docker filemaker tipps & anleitungen neo4j apple macos llm sprachmodelle mistral qdrant vektordatenbank sprachmodell
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist. ... mehr auf markus-schall.de

Lokale KI auf dem Mac: So installieren Sie ein Sprachmodell mit Ollama 15.08.2025 08:28:09

ollama llm gemma llama tipps & anleitungen mac mistral llm sprachmodelle sprachmodell
Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick e... mehr auf markus-schall.de