Tag suchen

Tag:

Tag qdrant

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit 26.09.2025 08:41:39

apple macos neo4j filemaker llm sprachmodell apple iphone & ipad qdrant erp-software gfm-business llm sprachmodelle
Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windo... mehr auf markus-schall.de

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit 26.09.2025 08:41:39

qdrant llm sprachmodelle erp-software gfm-business apple iphone & ipad sprachmodell llm neo4j apple macos filemaker
Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windo... mehr auf markus-schall.de

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten 31.08.2025 17:10:51

docker filemaker llama gemma llm ollama vektordatenbank datenbanken llm sprachmodelle mistral qdrant
In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponente... mehr auf markus-schall.de

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac 20.08.2025 15:39:23

sprachmodell vektordatenbank qdrant mistral llm sprachmodelle apple macos neo4j tipps & anleitungen filemaker docker ollama llm llama
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist. ... mehr auf markus-schall.de