SDK Deep Agents od LangChain pozwala teraz modelom AI decydować, kiedy kompresować swoje okna kontekstu, zmniejszając manualną interwencję w długotrwałych przepływach pracy agentów. (ReadSDK Deep Agents od LangChain pozwala teraz modelom AI decydować, kiedy kompresować swoje okna kontekstu, zmniejszając manualną interwencję w długotrwałych przepływach pracy agentów. (Read

LangChain daje agentom AI kontrolę nad własnym zarządzaniem pamięcią

2026/03/12 09:55
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

LangChain Daje Agentom AI Kontrolę Nad Własnym Zarządzaniem Pamięcią

Terrill Dicki 12 mar 2026 01:55

Deep Agents SDK firmy LangChain pozwala teraz modelom AI decydować, kiedy kompresować swoje okna kontekstowe, redukując ręczną interwencję w długotrwałych przepływach pracy agentów.

LangChain Daje Agentom AI Kontrolę Nad Własnym Zarządzaniem Pamięcią

LangChain wydał aktualizację swojego Deep Agents SDK, która przekazuje modelom AI klucze do zarządzania własną pamięcią. Nowa funkcja, ogłoszona 11 marca 2026 roku, pozwala agentom autonomicznie uruchamiać kompresję kontekstu zamiast polegać na stałych progach tokenów lub ręcznych poleceniach użytkownika.

Zmiana ta rozwiązuje uporczywy problem w rozwoju agentów: okna kontekstowe wypełniają się w niedogodnych momentach. Obecne systemy zazwyczaj kompaktują pamięć, gdy osiągają 85% limitu kontekstu modelu—co może się zdarzyć w trakcie refaktoryzacji lub podczas złożonej sesji debugowania. Złe wyczucie czasu prowadzi do utraty kontekstu i przerywanych przepływów pracy.

Dlaczego Czas Ma Znaczenie

Kompresja kontekstu nie jest niczym nowym. Technika ta zastępuje starsze wiadomości skondensowanymi podsumowaniami, aby utrzymać agentów w ramach ich limitów tokenów. Ale kiedy kompresujesz, ma takie samo znaczenie jak to, czy w ogóle kompresujesz.

Implementacja LangChain identyfikuje kilka optymalnych momentów kompresji: granice zadań, gdy użytkownicy zmieniają fokus, po wyodrębnieniu wniosków z dużych kontekstów badawczych lub przed rozpoczęciem długotrwałych edycji wielu plików. Agent zasadniczo uczy się sprzątać dom przed rozpoczęciem bałaganiarskiej pracy, zamiast panikować, gdy kończy się miejsce.

Badania Factory AI opublikowane w grudniu 2024 roku potwierdzają to podejście. Ich analiza wykazała, że ustrukturyzowane podsumowanie—zachowujące ciągłość kontekstu zamiast agresywnego obcinania—okazało się krytyczne dla złożonych zadań agentów, takich jak debugowanie. Agenci, którzy utrzymywali strukturę przepływu pracy, znacząco przewyższali tych używających prostych metod odcięcia.

Implementacja Techniczna

Narzędzie jest dostarczane jako middleware dla Deep Agents SDK (Python) i integruje się z istniejącym CLI. Programiści dodają je do konfiguracji swojego agenta:

System zachowuje 10% dostępnego kontekstu jako ostatnie wiadomości, jednocześnie podsumowując wszystko wcześniejsze. LangChain wbudował zabezpieczenie—pełna historia konwersacji pozostaje w wirtualnym systemie plików agenta, umożliwiając odzyskanie danych, jeśli kompresja pójdzie nie tak.

Wewnętrzne testowanie wykazało, że agenci są konserwatywni w uruchamianiu kompresji. LangChain zwalidował funkcję względem swojego benchmarku Terminal-bench-2 i niestandardowych zestawów ewaluacyjnych przy użyciu śladów LangSmith. Gdy agenci kompresowali autonomicznie, konsekwentnie wybierali momenty, które poprawiały ciągłość przepływu pracy.

Szerszy Obraz

To wydanie odzwierciedla szerszą zmianę w filozofii architektury agentów. LangChain wyraźnie odwołuje się do „gorzkiej lekcji" Richarda Suttona—obserwacji, że ogólne metody wykorzystujące obliczenia z czasem mają tendencję do przewyższania ręcznie dostrajanych podejść.

Zamiast programistów skrupulatnie konfigurujących, kiedy agenci powinni zarządzać pamięcią, framework deleguje tę decyzję do samego modelu. To zakład, że zdolności rozumowania w modelach takich jak GPT-5.4 osiągnęły punkt, w którym mogą one niezawodnie podejmować te operacyjne decyzje.

Dla programistów budujących długotrwałych lub interaktywnych agentów, funkcja jest opcjonalna poprzez SDK i dostępna za pomocą polecenia /compact w CLI. Praktyczny wpływ: mniej przerywanych przepływów pracy i mniejsze prowadzenie użytkownika za rękę w kwestii limitów kontekstu, których większość użytkowników końcowych i tak nie rozumie.

Źródło obrazu: Shutterstock
  • langchain
  • agenci ai
  • kompresja kontekstu
  • deep agents sdk
  • narzędzia deweloperskie
Okazja rynkowa
Logo DeepBook
Cena DeepBook(DEEP)
$0.032375
$0.032375$0.032375
+5.37%
USD
DeepBook (DEEP) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.