Die Erfahrung, mit einem Freund zu kommunizieren, der immer den Inhalt des Gesprächs vergisst und jedes Mal wieder von vorne anfangen muss, ist zweifellos ineffizient und anstrengend. Doch genau das ist die Norm für die meisten aktuellen KI-Systeme. Sie sind zwar leistungsfähig, aber es fehlt ihnen in der Regel eine wichtige Komponente: das Gedächtnis. Um Systeme zu entwickeln, die wirklich lernen, sich weiterentwickeln und zusammenarbeiten können...
Von API-Aufrufen für große Sprachmodelle (Large Language Models, LLMs) bis hin zu autonomen, zielgerichteten agentengesteuerten Workflows vollzieht sich ein grundlegender Paradigmenwechsel bei KI-Anwendungen. Die Open-Source-Gemeinschaft hat bei dieser Welle eine Schlüsselrolle gespielt und eine Fülle von KI hervorgebracht, die sich auf spezifische Forschungsaufgaben konzentriert...
Erfahren Sie alles über Reinforcement Learning (RL) und wie Sie Ihr eigenes DeepSeek-R1-Inferenzmodell mit Unsloth und GRPO trainieren können. Ein kompletter Leitfaden vom Anfänger bis zum Meister. 🦥 Was Sie lernen werden Was ist RL? RLVR? PPO? GRPO? RLHF? RFT?...
Mit der raschen Entwicklung und breiten Anwendung von Technologien zur Sprachmodellierung in großem Maßstab rücken deren potenzielle Sicherheitsrisiken zunehmend in den Mittelpunkt des Interesses der Branche. Um diesen Herausforderungen zu begegnen, haben viele der weltweit führenden Technologieunternehmen, Standardisierungsorganisationen und Forschungsinstitute eigene Sicherheitsrahmenwerke entwickelt und veröffentlicht. In dieser Abhandlung werden wir neun von ihnen analysieren...
Im Bereich der Large Language Modelling (LLM)-Forschung ist die Leap-of-Thought-Fähigkeit des Modells, d.h. die Kreativität, nicht weniger wichtig als die Fähigkeit zum logischen Denken, die durch die Chain-of-Thought repräsentiert wird. Es gibt jedoch immer noch einen relativen Mangel an eingehenden Diskussionen und validen Bewertungsmethoden für die LLM-Kreativität, die in ...
Claude Code meistern: Praktische Tipps für Agentic Coding aus erster Hand Claude Code ist ein Kommandozeilenwerkzeug für Agentic Coding. Mit "Agentic Coding" meinen wir, der KI ein gewisses Maß an Autonomie zu geben, die Fähigkeit, Aufgaben zu verstehen, Schritte zu planen und Aktionen durchzuführen (wie...
Die GPT-4.1-Modellfamilie bietet im Vergleich zu GPT-4o erhebliche Verbesserungen bei der Codierung, der Befolgung von Anweisungen und der Verarbeitung langer Kontexte. Insbesondere schneidet sie bei der Codegenerierung und bei Reparaturaufgaben besser ab, versteht und führt komplexe Anweisungen genauer aus und kann längere Eingabetexte effizient verarbeiten. Diese angedeutete Arbeit ...
1 EINLEITUNG In der heutigen Informationsexplosion wird eine große Menge an Wissen in Form von Tabellen in Webseiten, Wikipedia und relationalen Datenbanken gespeichert. Herkömmliche Frage- und Antwortsysteme haben jedoch oft Schwierigkeiten, komplexe Abfragen über mehrere Tabellen hinweg zu bearbeiten, was zu einer großen Herausforderung im Bereich der künstlichen Intelligenz geworden ist. Um diese Herausforderung zu bewältigen, haben Forscher ...
Da sich die Fähigkeiten von Large Language Models (LLMs) rasch weiterentwickeln, zeigen herkömmliche Benchmark-Tests wie MMLU allmählich ihre Grenzen bei der Unterscheidung von Spitzenmodellen. Wenn man sich nur auf Wissensquizze oder standardisierte Tests verlässt, ist es schwierig geworden, die nuancierten Fähigkeiten von Modellen umfassend zu messen, die in realen Interaktionen entscheidend sind, wie z. B. emotionale Intelligenz,...
Die Entwicklung von Large Language Models (LLMs) schreitet rasch voran, und ihre Denkfähigkeit ist zu einem Schlüsselindikator für ihren Intelligenzgrad geworden. Insbesondere Modelle mit langen Denkfähigkeiten wie o1, DeepSeek-R1, QwQ-32B und Kimi K1.5 von OpenAI, die den menschlichen Denkprozess durch das Lösen zusammengesetzter Aufgaben simulieren,...
EINLEITUNG In den letzten Jahren haben große Sprachmodelle (Large Language Models, LLMs) beeindruckende Fortschritte im Bereich der Künstlichen Intelligenz (KI) gemacht, und ihre leistungsstarken Sprachverstehens- und -generierungsfähigkeiten haben zu einem breiten Spektrum von Anwendungen in verschiedenen Bereichen geführt. Allerdings stehen LLMs immer noch vor vielen Herausforderungen, wenn sie komplexe Aufgaben bewältigen müssen, die den Einsatz externer Werkzeuge erfordern. Zum Beispiel, ...
Im Python-Ökosystem gab es schon immer einen Mangel an Werkzeugen für die Paket- und Umgebungsverwaltung, von den klassischen pip und virtualenv über pip-tools und conda bis hin zu den modernen Poetry und PDM. Jedes Tool hat sein eigenes Fachgebiet, aber sie machen die Toolchain eines Entwicklers oft fragmentiert und komplex. Jetzt, ...
EINLEITUNG In den letzten Jahren haben multi-intelligente Systeme (MAS) auf dem Gebiet der künstlichen Intelligenz viel Aufmerksamkeit auf sich gezogen. Diese Systeme versuchen, komplexe, mehrstufige Aufgaben durch die Zusammenarbeit mehrerer Large Language Model (LLM) Intelligenzen zu lösen. Trotz der hohen Erwartungen, die an MAS geknüpft werden, ist ihre Leistung in realen Anwendungen noch nicht ...
Große Sprachmodelle (Large Language Models, LLMs) wie Claude werden nicht von Menschen erstellt, die direkten Programmiercode schreiben, sondern sie werden anhand großer Datenmengen trainiert. Dabei lernen die Modelle ihre eigenen Strategien zur Lösung von Problemen. Diese Strategien sind in den Milliarden von Berechnungen versteckt, die das Modell durchführt, um jedes Wort für...
Vor kurzem hat Anthropic ein neues Tool namens "think" eingeführt, das die Fähigkeiten des Claude-Modells zur Lösung komplexer Probleme verbessern soll. In diesem Beitrag werden wir die Design-Philosophie, die Leistung und die praktische Anwendung des "think"-Tools näher betrachten...
Abstrakte Information Retrieval Systeme sind entscheidend für den effizienten Zugang zu großen Dokumentensammlungen. Jüngste Ansätze verwenden Large Language Models (LLMs), um die Suchleistung durch Abfrageerweiterung zu verbessern. Diese beruhen jedoch in der Regel auf teuren überwachten Lern- oder Destillationstechniken, die erhebliche Rechenressourcen und manuell gelabelte Daten erfordern. In ...
Large Reasoning Models (LLMs) nutzen Schwachstellen aus, wenn sie die Gelegenheit dazu haben. Die Forschung hat gezeigt, dass diese Schwachstellen aufgedeckt werden können, indem große Sprachmodelle (LLMs) zur Überwachung ihrer Gedankenketten (CoT) eingesetzt werden. Die Bestrafung von Modellen für "schlechte Gedanken" verhindert das meiste Fehlverhalten nicht, sondern bringt sie eher dazu, ihre Absichten zu verbergen. ...
Hintergrund Ein kürzlich erschienenes Papier mit dem Titel Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning (arxiv.org/pdf...
Das GraphRAG-Projekt zielt darauf ab, das Spektrum der Fragen zu erweitern, die KI-Systeme in privaten Datensätzen beantworten können, indem sie implizite Beziehungen in unstrukturiertem Text ausnutzen. Ein wesentlicher Vorteil von GraphRAG gegenüber der traditionellen Vektor-RAG (oder "semantischen Suche") ist die Fähigkeit, globale Abfragen über ganze Datensätze zu beantworten, wie z. B....