Der Proxy-Free Safe Pause & Resume Layer für KI-Agenten.

Stoppen Sie Agenten im RAM, sichern Sie ihren State und setzen Sie sicher fort. Die elegante In-Process Alternative zu LiteLLM und Portkey. 2 Zeilen Code. Kein Proxy.

Open Source · Patent angemeldet
AeneasSoft — Safe Pause & Resume in action

Von Panik zu Kontrolle in 2 Zeilen.

Schluss mit Callbacks, Decorators und Custom-Loggern. AeneasSoft fängt jeden LLM-Call auf HTTP-Ebene ab — und blockiert die gefährlichen im RAM.

Traditionelles Observability — 50+ Zeilen
# Traditional observability setup - 50+ lines of boilerplate
from langchain.callbacks import BaseCallbackHandler
from langchain.callbacks.manager import CallbackManager
import opentelemetry
from opentelemetry import trace
from opentelemetry.sdk.trace import TracerProvider
from opentelemetry.sdk.trace.export import BatchSpanProcessor
from opentelemetry.exporter.otlp.proto.grpc import OTLPSpanExporter
import logging
import json
import time

class CustomAgentTracer(BaseCallbackHandler):
    def __init__(self, service_name: str):
        self.provider = TracerProvider()
        self.exporter = OTLPSpanExporter(endpoint="...")
        self.provider.add_span_processor(
            BatchSpanProcessor(self.exporter)
        )
        trace.set_tracer_provider(self.provider)
        self.tracer = trace.get_tracer(service_name)
        self.logger = logging.getLogger(__name__)
        self._spans = {}
        self._costs = {}

    def on_llm_start(self, serialized, prompts, **kwargs):
        span = self.tracer.start_span("llm_call")
        span.set_attribute("prompts", json.dumps(prompts))
        span.set_attribute("model", serialized.get("model"))
        self._spans[kwargs["run_id"]] = span
        self._costs[kwargs["run_id"]] = time.time()

    def on_llm_end(self, response, **kwargs):
        span = self._spans.pop(kwargs["run_id"])
        elapsed = time.time() - self._costs.pop(kwargs["run_id"])
        span.set_attribute("latency_ms", elapsed * 1000)
        span.set_attribute("tokens", response.usage.total)
        span.end()

    def on_chain_start(self, serialized, inputs, **kwargs):
        span = self.tracer.start_span("chain")
        self._spans[kwargs["run_id"]] = span

    def on_chain_end(self, outputs, **kwargs):
        span = self._spans.pop(kwargs["run_id"], None)
        if span: span.end()

    def on_tool_start(self, serialized, input_str, **kwargs):
        # ... more boilerplate
        pass

# Setup callback manager
tracer = CustomAgentTracer("my-agent-service")
callback_manager = CallbackManager([tracer])

# Pass to every single chain and agent...
chain = LLMChain(llm=llm, callbacks=callback_manager)
AeneasSoft — 2 Zeilen
import agentwatch
agentwatch.init()
# Jeder LLM-Call überwacht. Außer Kontrolle geratene Agenten blockiert.

Funktioniert mit OpenAI, Anthropic, Gemini, Mistral, Groq, Cohere, Together AI, Fireworks, Azure, Ollama.

Active Defense für Multi-Agenten-Systeme.

Nicht nur Observability. Aktiver Schutz für Ihre KI-Agenten in Produktion.

In-Process Safe Pause & Resume.

Blockiert bösartige oder endlos laufende Requests direkt im Arbeitsspeicher. Keine Proxy-Latenz. Kein Netzwerk-Roundtrip. Kein Single Point of Failure. Vollständig Open Source.

Agentenverhalten sofort verstehen.

Schluss mit JSON-Logs durchsuchen. Sehen Sie genau warum Ihr Agent eine Entscheidung getroffen hat — mit interaktiven kausalen Ausführungsgraphen.

Budget-Verschwendung stoppen.

Wissen Sie genau welcher Agent $47.30 ausgegeben hat und warum. Echtzeit-Kostenaufschlüsselung pro Agent und Modell. Budget-Limits die tatsächlich blockieren.

EU AI Act Ready. (Enterprise)

Generieren Sie RSA-signierte Article 12 Compliance-Reports mit einem Klick. Audit-ready by Design. Verfügbar als Enterprise-Feature.

Warum AeneasSoft?

Ehrlicher Vergleich. Kein Marketing-Spin.

FeatureAeneasSoftLiteLLMPortkey
In-Process (Kein Proxy)JaNein (Proxy)Nein (Proxy)
Circuit BreakerJaJaJa
Safe Pause & ResumeJaNeinNein
EU AI Act ReportsJaNeinNein
Setup-Zeit2 ZeilenConfig + ProxyConfig + Proxy
Open SourceJa (MIT)Ja (MIT)Nein
Patent-geschütztJa (USPTO)NeinNein

Der universelle Interceptor für KI-Agenten.

Ein Interceptor. Alle Anbieter. Null Konfiguration.

OA
OpenAI
AN
Anthropic
GG
Google Gemini
MI
Mistral
GQ
Groq
CO
Cohere
TG
Together AI
FW
Fireworks AI
AZ
Azure OpenAI
OL
Ollama

Wir mussten unsere Multi-Agenten-Systeme verstehen, nicht nur überwachen. AeneasSofts HTTP-Level Interception gab uns diese Kontrolle — sofort.

— Early Adopter, AI Research Lab
REGULIERUNGS-FRIST

EU AI Act Artikel 12: 2. August 2026.

Ist Ihr KI-System bereit?

Artikel 12 verlangt automatische Protokollierung von KI-System-Ereignissen. AeneasSoft liefert das — plus aktive Verteidigung. Enterprise-Kunden erhalten RSA-signierte Compliance-Reports.

Article 12 Readiness prüfen →

Ihre Fragen. Unsere Antworten.

Schluss mit Raten. Verteidigung starten.

Open Source. Kein Vendor Lock-in. 2 Zeilen Code. Volle Active Defense in unter 2 Minuten.

Auf GitHub ansehen →