OpenAI Nawiązuje Współpracę z Laboratorium DOE w Celu Skrócenia Czasu Federalnych Zezwoleń o 15%
Tony Kim 04 mar 2026 17:29
OpenAI i Pacific Northwest National Laboratory uruchamiają DraftNEPABench, pokazując, że agenci AI mogą zaoszczędzić 1-5 godzin na podsekcję w federalnych przeglądach środowiskowych.
OpenAI i Pacific Northwest National Laboratory Departamentu Energii USA opracowały benchmark pokazujący, że agenci kodowania AI mogą skrócić projekty federalnych zezwoleń środowiskowych nawet o 15%. Współpraca ogłoszona 26 lutego 2026 roku zaowocowała DraftNEPABench – platformą testową, która oceniła wydajność AI w 102 zadaniach redakcyjnych z 18 agencji federalnych.
Benchmark koncentruje się szczególnie na procesach National Environmental Policy Act, 50-letnim procesie wymagającym od agencji federalnych dokumentowania wpływu na środowisko przed zatwierdzeniem projektów infrastrukturalnych, takich jak elektrownie, mosty i zakłady produkcyjne. Te przeglądy często trwają latami i obejmują setki stron raportów technicznych.
Co Pokazały Testy
Dziewiętnastu ekspertów NEPA oceniło projekty wygenerowane przez AI w skali 1-5, mierząc strukturę, przejrzystość, dokładność i prawidłowe użycie odniesień. Agenci – działający na OpenAI Codex CLI z GPT-5 – wykazali potencjał do zaoszczędzenia 1-5 godzin na podsekcję dokumentu.
To nie brzmi dramatycznie, dopóki nie weźmie się pod uwagę skali. Raporty Oceny Wpływu na Środowisko zawierają dziesiątki podsekcji, z których każda wymaga wzajemnego odwoływania się do raportów technicznych, wymogów regulacyjnych i wielu źródeł danych. Kilka zaoszczędzonych godzin na sekcję szybko się sumuje w projektach, których realizacja obecnie zajmuje miesiące lub lata.
Agenci AI musieli czytać i syntetyzować dokumenty obejmujące setki stron, weryfikować fakty w źródłach środowiskowych i regulacyjnych oraz tworzyć ustrukturyzowane raporty spełniające określone kryteria prawne. Zadania obejmowały sekcje dokumentów z agencji w całym rządzie federalnym.
Ograniczenia Warte Uwagi
PNNL i OpenAI byli szczerzy co do tego, czego ten benchmark nie dowodzi. Ocenia on wydajność w dobrze określonych zadaniach redakcyjnych, gdzie dostępny jest odpowiedni kontekst – a nie nieuporządkowaną niejednoznaczność rzeczywistych decyzji dotyczących zezwoleń.
Przeglądając przypadki niepowodzeń, badacze odkryli, że niektóre „błędy" wynikały z nieaktualnych odniesień i słabych kryteriów oceny, a nie z pomyłek modelu. Rzeczywiste wdrożenia obejmowałyby pętle informacji zwrotnych od ekspertów, które mają poprawić wydajność poza wynikami benchmarku.
Jeśli materiały źródłowe są niekompletne lub niespójne, modele niekoniecznie oznaczą problemy bez wyraźnych instrukcji. Nadzór człowieka pozostaje niezbędny.
Szerszy Obraz
To partnerstwo wpisuje się w szerszą inicjatywę PermitAI firmy PNNL, finansowaną przez Biuro Polityki Departamentu Energii. Celem nie jest zastąpienie ludzkich recenzentów – chodzi o zapewnienie pracownikom rządowym zespołów AI, które zajmują się czasochłonną pracą dokumentacyjną, aby mogli skupić się na ocenach i złożonych decyzjach.
OpenAI twierdzi, że współpraca będzie kontynuowana w celu udoskonalania aplikacji PermitAI. Firmy oczekują, że średni czas zatwierdzania federalnie sprawdzanych projektów infrastrukturalnych ostatecznie spadnie z miesięcy do tygodni, chociaż nie podano konkretnego harmonogramu osiągnięcia tej redukcji.
Dla branży AI stanowi to kolejny przypadek użycia walidacji rządowej – pokazujący, że najnowocześniejsze modele mogą obsługiwać rzeczywiste przepływy pracy regulacyjnej, a nie tylko rozmowy z chatbotami. To, czy przełoży się to na szerszą federalną adopcję AI, zależy od tego, jak kolejne pilotaże będą działać w rzeczywistych warunkach wydawania zezwoleń.
Źródło obrazu: Shutterstock- openai
- sztuczna inteligencja
- federalne zezwolenia
- nepa
- technologia rządowa

