Tag suchen

Tag:

Tag llm_sprachmodelle

Apple MLX vs. NVIDIA: So funktioniert lokale KI-Inferenz auf dem Mac 12.11.2025 09:31:02

apple macos filemaker ollama featured llm kã¼nstliche intelligenz llama sprachmodell apple datenschutz mlx mac mistral künstliche intelligenz llm sprachmodelle hardware
Wer heute mit Künstlicher Intelligenz arbeitet, denkt oft zuerst an ChatGPT oder ähnliche Online-Dienste. Man tippt eine Frage ein, wartet ein paar Sekunden – und erhält eine Antwort, als säße ein sehr belesener, geduldiger Gesprächspartner am anderen Ende der Leitung. Doch was dabei leicht vergessen wird: Jede Eingabe, jeder Satz, jedes Wort wande... mehr auf markus-schall.de

Wie man heute schon KI-Spezialisten ausbilden kann – Chancen für Unternehmen und Azubis 13.10.2025 18:16:12

datenbanken llm sprachmodelle buch allgemein sprachmodell llm denkmodelle bücher datenlogik tipps & anleitungen
Noch vor wenigen Jahren war Künstliche Intelligenz ein Thema für Forschungseinrichtungen und große Konzerne. Man sprach über neuronale Netze, Deep Learning oder Spracherkennung – aber im Alltag spielte das kaum eine Rolle. Heute ist KI kein Zukunftsthema mehr, sondern Realität: Sie schreibt Texte, erstellt Bilder, analysiert Daten und steuert Produ... mehr auf markus-schall.de

Künstliche Intelligenz: Welche Jobs in Gefahr sind, und wie wir uns jetzt wappnen können 24.09.2025 07:41:19

featured ollama bücher llama llm gesellschaft sprachmodell allgemein ratgeber mlx mistral buch llm sprachmodelle
Kaum ein technologischer Wandel hat sich so schnell in unseren Alltag eingeschlichen wie die künstliche Intelligenz. Was gestern noch als visionäre Zukunftstechnologie galt, ist heute bereits Realität – ob beim Texten, Programmieren, Diagnostizieren, Übersetzen oder sogar beim Erstellen von Musik, Kunst oder juristischen Schriftsätzen. Doch mit die... mehr auf markus-schall.de

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten 31.08.2025 17:10:51

vektordatenbank llm sprachmodelle datenbanken mistral qdrant docker filemaker gemma llama llm ollama
In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponente... mehr auf markus-schall.de

Künstliche Intelligenz: Welche Jobs in Gefahr sind, und wie wir uns jetzt wappnen können 24.09.2025 07:41:19

gesellschaft sprachmodell allgemein ratgeber mlx mistral buch llm sprachmodelle featured ollama bücher llama llm
Kaum ein technologischer Wandel hat sich so schnell in unseren Alltag eingeschlichen wie die künstliche Intelligenz. Was gestern noch als visionäre Zukunftstechnologie galt, ist heute bereits Realität – ob beim Texten, Programmieren, Diagnostizieren, Übersetzen oder sogar beim Erstellen von Musik, Kunst oder juristischen Schriftsätzen. Doch mit die... mehr auf markus-schall.de

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit 26.09.2025 08:41:39

apple macos neo4j filemaker llm sprachmodell apple iphone & ipad qdrant erp-software gfm-business llm sprachmodelle
Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windo... mehr auf markus-schall.de

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac 20.08.2025 15:39:23

ollama llm llama apple macos neo4j tipps & anleitungen filemaker docker qdrant mistral llm sprachmodelle sprachmodell vektordatenbank
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist. ... mehr auf markus-schall.de

Digitale Abhängigkeit: Wie wir unsere Selbstbestimmung an die Cloud verloren haben 03.10.2025 07:19:14

tipps & anleitungen datenlogik apple macos gfm-business erp-software llm sprachmodelle erfahrungen gesellschaft apple apple iphone & ipad
Ich habe es schon immer für einen Fehler gehalten, wenn Menschen ihre Daten aus der Hand geben – sei es in der Cloud, über Apps oder bei irgendwelchen „kostenlosen“ Diensten. Datenhoheit war für mich nie ein Modewort, sondern eine Frage der Selbstachtung. Wer Technik nutzt, ohne die Konsequenzen zu überdenken, begibt sich in eine Abhängigkeit, ... ... mehr auf markus-schall.de

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit 26.09.2025 08:41:39

filemaker apple macos neo4j llm sprachmodell apple iphone & ipad llm sprachmodelle erp-software gfm-business qdrant
Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windo... mehr auf markus-schall.de

Digitale Abhängigkeit: Wie wir unsere Selbstbestimmung an die Cloud verloren haben 03.10.2025 07:19:14

tipps & anleitungen datenlogik apple macos gfm-business erp-software llm sprachmodelle erfahrungen apple gesellschaft apple iphone & ipad
Ich habe es schon immer für einen Fehler gehalten, wenn Menschen ihre Daten aus der Hand geben – sei es in der Cloud, über Apps oder bei irgendwelchen „kostenlosen“ Diensten. Datenhoheit war für mich nie ein Modewort, sondern eine Frage der Selbstachtung. Wer Technik nutzt, ohne die Konsequenzen zu überdenken, begibt sich in eine Abhängigkeit, ... ... mehr auf markus-schall.de

MLX auf Apple Silicon als lokale KI im Vergleich mit Ollama & Co. 13.09.2025 10:40:51

sprachmodell mlx mistral llm sprachmodelle apple macos ollama llama llm
In einer Zeit, in der zentrale KI-Dienste wie ChatGPT, Claude oder Gemini die Schlagzeilen beherrschen, wächst bei vielen professionellen Anwendern das Bedürfnis nach einem Gegenpol – einer lokalen, selbst kontrollierbaren KI-Infrastruktur. Gerade für kreative Prozesse, sensible Daten oder wiederkehrende Arbeitsabläufe ist eine lokale Lösung oft di... mehr auf markus-schall.de

LoRA-Training: Wie FileMaker 2025 das Feintuning großer Sprachmodelle vereinfacht 27.10.2025 07:58:11

filemaker llm mlx sprachmodell datenbanken llm sprachmodelle
Die Welt der künstlichen Intelligenz ist in Bewegung. Neue Modelle, neue Methoden und vor allem neue Möglichkeiten entstehen heute fast wöchentlich – und dennoch bleibt eine Erkenntnis konstant: Nicht jede technische Neuerung führt automatisch zu einem besseren Alltag. Vieles bleibt experimentell, komplex oder schlicht zu aufwendig für den produkti... mehr auf markus-schall.de

Integration von MLX in FileMaker 2025: Lokale KI als neuer Standard 16.09.2025 10:51:57

llm sprachmodelle datenbanken mac vektordatenbank mlx sprachmodell tipps & anleitungen filemaker
Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet ... mehr auf markus-schall.de

Lokale KI auf dem Mac: So installieren Sie ein Sprachmodell mit Ollama 15.08.2025 08:28:09

llm gemma llama ollama tipps & anleitungen llm sprachmodelle mac mistral sprachmodell
Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick e... mehr auf markus-schall.de