Tag suchen

Tag:

Tag vektordatenbank

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten 31.08.2025 17:10:51

filemaker docker gemma datenbanken ollama llm vektordatenbank qdrant llama llm sprachmodelle mistral
In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponente... mehr auf markus-schall.de

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac 20.08.2025 15:39:23

sprachmodell qdrant llama llm sprachmodelle mistral filemaker docker tipps & anleitungen ollama apple macos neo4j llm vektordatenbank
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist. ... mehr auf markus-schall.de

Integration von MLX in FileMaker 2025: Lokale KI als neuer Standard 16.09.2025 10:51:57

sprachmodell mlx llm sprachmodelle filemaker tipps & anleitungen datenbanken vektordatenbank mac
Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet ... mehr auf markus-schall.de