Tag suchen

Tag:

Tag ollama

MLX auf Apple Silicon als lokale KI im Vergleich mit Ollama & Co. 13.09.2025 10:40:51

llm sprachmodelle mistral mlx sprachmodell llm llama ollama apple macos
In einer Zeit, in der zentrale KI-Dienste wie ChatGPT, Claude oder Gemini die Schlagzeilen beherrschen, wächst bei vielen professionellen Anwendern das Bedürfnis nach einem Gegenpol – einer lokalen, selbst kontrollierbaren KI-Infrastruktur. Gerade für kreative Prozesse, sensible Daten oder wiederkehrende Arbeitsabläufe ist eine lokale Lösung oft di... mehr auf markus-schall.de

Apertus, die KI aus der Schweiz – ein kurzer Einblick 08.09.2025 19:42:18

ollama allgemein ki / ai
... mehr auf chefblogger.me

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten 31.08.2025 17:10:51

filemaker docker llm llama gemma ollama vektordatenbank datenbanken llm sprachmodelle qdrant mistral
In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponente... mehr auf markus-schall.de

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac 20.08.2025 15:39:23

qdrant mistral llm sprachmodelle sprachmodell vektordatenbank ollama llm llama neo4j apple macos filemaker tipps & anleitungen docker
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist. ... mehr auf markus-schall.de

Lokale KI auf dem Mac: So installieren Sie ein Sprachmodell mit Ollama 15.08.2025 08:28:09

sprachmodell mac mistral llm sprachmodelle tipps & anleitungen ollama llm gemma llama
Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick e... mehr auf markus-schall.de

ChatGPT-KI auf dem eigenen Computer – was brauche ich für GPT-OSS? 07.08.2025 12:36:32

ollama lokale modelle open weights ki mac sprachmodelle blog chatgpt open source
„ChatGPT zum Herunterladen“ – das ist vereinfacht gesagt das, was OpenAI-Boss Sam Altman vorgestern verkündet hat. Hier geht es um die einfachen Fragen: Was brauche ich dafür, und wozu ist das überhaupt gut? Dieser Artikel ist für alle, die chatgpt.com und ähnliche Dienste wie gemini.google.com oder chat.mistral.ai im Netz kenn... mehr auf eggers-elektronik.de

PhraseExpress für Windows und macOS: Neue Version unterstützt lokale KI-Modelle wie GPT4All und Ollama 20.08.2024 14:49:15

software & dienste macos freeware ollama llama updates software chatgpt windows künstliche intelligenz textbausteine phraseexpress
Die Bartels Media GmBH hat ihre Textbausteinverwaltung PhraseExpress in neuer Version für Windows und Mac veröffentlicht. Neu ist unter anderem die Unterstützung von lokalen KI-Modellen wie GPT4All und Ollama. PhraseExpress aus dem Hause Bartels Media…Ebenfalls interessant:[related_posts_by_tax posts_per_p... mehr auf tchgdns.de

Quickie: So schreibt die KI deinen Programmcode mit! 05.06.2024 08:30:20

tools open source ki python copilot sprachmodelle lokale modelle ollama r
Eine geschätzte Kollegin hat mir beim Gespräch vor einigen Wochen gesagt, dass das das manchmal schon sehr nerdy ist, was ich hier blogge. Heute wird’s mal richtig was aus der Nische: ein Tipp für die paar Leute genau wie mich – die nicht besonders gut programmieren, es trotzdem gelegentlich tun, und sich dabei von KI […] ... mehr auf eggers-elektronik.de

NameQuick für den Mac: KI-gestütztes Umbenennen von Dateien 04.06.2025 16:00:34

chatgpt dateien und ordner neuvorstellungen software künstliche intelligenz kostenpflichtig software & dienste ollama macos gemini
Die App NameQuick für macOS verspricht ein schnelles und automatisch Umbenennen verschiedener Dateien mit Hilfe durch KI-Modellen von OpenAI, Gemini oder auch per lokalem Ollama-Modellen. Künstliche Intelligenz zieht in immer mehr Bereichen des Lebens ein, gefühlt wird alles, was nicht bei drei auf den Bäumen ist, wird mit KI-Funktionen ausgestatte... mehr auf tchgdns.de

Wie kann ich DeepSeek die neue chinesische KI lokal installieren? 29.01.2025 17:12:37

technik ollama deepseek chatgpt ki / ai
... mehr auf chefblogger.me

Eigenes LLM für Zuhause – Geekom A8 Max im Test 23.04.2025 12:00:50

gemini 2.5 pro linux hugging face a8 max ubuntu ollama geekom llm geekom a8 max gemini chatgpt künstliche intelligenz ki testberichte hardware
... mehr auf deskmodder.de

Docker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für Entwickler heraus 09.10.2023 09:03:11

llm ollama docker internationale pressemitteilungen neo4j dockercon genai-stack langchain
Sofort einsatzbereiter und sicherer Stack: Minutenschneller Zugriff auf GenAI-Apps für Entwickler Los Angeles / München, 09. Oktober 2023 – Auf der jährlichen globalen Entwicklerkonferenz DockerCon hat Docker, Inc. gemeinsam mit seinen Partnern Neo4j, LangChain und Ollama einen neuen GenAI-Stack angekündigt. Dieser soll Entwicklern helfen, in... mehr auf pr-echo.de

5 App-Empfehlungen im Oktober 2023 10.10.2023 10:28:04

setapp ollama mission control plus apps about this hack any text opencore legacy patcher
Auch im Oktober bekommt ihr wieder eine neue Handvoll Empfehlungen für die Software-Ausstattung eures Apple Mac. Heute habe ich abermals einen bunten Bl... mehr auf sir-apfelot.de

Wichtige Befehle für n8n und ollama gehostet auf einem Server 12.06.2025 11:00:24

allgemein ollama n8n
... mehr auf chefblogger.me

Docker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für Entwickler heraus 09.10.2023 09:09:07

langchain dockercon genai-stack allgemeines docker neo4j llm ollama
Sofort einsatzbereiter und sicherer Stack: Minutenschneller Zugriff auf GenAI-Apps für Entwickler Los Angeles / München, 09. Oktober 2023 – Auf der jährlichen globalen Entwicklerkonferenz DockerCon hat Docker, Inc. gemeinsam mit seinen Partnern Neo4j, LangChain und Der Artikel ... mehr auf inar.de

KI Automatisierung: n8n + AI Ollama in Docker aufsetzen 18.06.2025 20:04:53

ki / ai allgemein ollama n8n
... mehr auf chefblogger.me