Tesla znalazła obejście praw fizyki. „Most Mieszanej Precyzji" opracowany przez Teslę został ujawniony po raz pierwszy w patencie US20260017019A1. Translator Matematyczny wypełnia lukę dla taniej, niskoenergetycznej technologii 8-bitowej. Ta technologia jest w stanie obsługiwać jedynie podstawowe liczby całkowite, a teraz technologia premium Rot8 dla elitarnej 32-bitowej.
Po pierwsze odblokowuje procesor AI5, który ma być 40 razy wydajniejszy niż obecny sprzęt. Jest to bardzo ważne w Tesla Optimus, który posiada baterię 2,3 kWh, czyli około 1/30 Modelu 3. Przy użyciu przetwarzania GPU 32-bitowego zużyje całą tę moc w niecałe cztery godziny i ponad 500W tylko na „myślenie".
W związku z tym Tesla zmniejsza budżet mocy obliczeniowej poniżej 100W. Problem „ściany termicznej" został rozwiązany. Teraz roboty są w stanie zachować równowagę i świadomość przez 8-godzinny harmonogram pracy i nie odczuwać ciepła.
Patent wprowadził „Silicon Bridge", który umożliwia systemom Optimus i FSD superinteligencję, bez ograniczania zasięgu ani powodowania topnienia się obwodów z gorąca. To zamienia budżetowy sprzęt Tesli w maszynę klasy superkomputera.
Ponadto rozwiązał problem zapominania. W poprzednich modelach FSD pojazd zauważał znak stop, ale jeśli ciężarówka zasłaniała widok na około 5 sekund, „zapominał" o tym.
Teraz Tesla używa okna „długiego kontekstu", pozwalającego AI cofnąć się do danych sprzed 30 sekund lub więcej. Jednak przy większych „odległościach" w czasie standardowa matematyka pozycyjna ma tendencję do powodowania dryftu.
Potok mieszanej precyzji Tesli rozwiązuje to problem, utrzymując wysoką rozdzielczość pozycyjną. To zapewnia, że AI wie dokładnie, gdzie znajduje się zasłonięty znak stop. Dzieje się tak nawet po długim czasie poruszania się wokół niego. Rzeczywiście, zespół Tesli twierdzi, że rotacje RoPE są wystarczająco precyzyjne, aby znak pozostał przypięty do swoich współrzędnych 3D na mentalnej mapie samochodu.
Patent opisuje szczególną metodę słuchania przy użyciu aproksymacji Log-Sum-Exp. Pozostając w domenie logarytmicznej, jest w stanie zarządzać ogromnym „zakresem dynamicznym" dźwięku, od ciichego brzęczenia do głośnego wozu strażackiego, używając tylko procesorów 8-bitowych bez konieczności „przycinania" głośnych dźwięków i tracenia cichych. Umożliwia to samochodowi słuchanie i rozróżnianie otoczenia z precyzją 32-bitową.
Tesla stosuje Trening Świadomy Kwantyzacji, czyli 'QAT'. Zamiast trenować AI w „idealnym" środowisku 32-bitowym i „kurczyć" go później, co zwykle skutkuje „pijaną i błędną" AI, Tesla trenuje AI od pierwszego dnia w symulowanym środowisku z ograniczeniami 8-bitowymi, co zasadniczo odblokowuje możliwości wdrożenia AI Tesli w coś znacznie mniejszego niż samochód.
Włączenie tej matematyki do krzemu daje Tesli również strategiczną niezależność. Tesla jest niezależna od ekosystemu CUDA firmy NVIDIA i jest w stanie jednocześnie przyjąć Strategię Podwójnej Odlewni z Samsungiem i TSMC.
Połączenie postępów AI xAI i wysokowydajnych możliwości obliczeniowych czyni ją obiecującym konkurentem dla Stargate OpenAI, który zostanie wydany w 2027 roku.
Najmądrzejsze umysły kryptowalutowe już czytają nasz newsletter. Chcesz dołączyć? Dołącz do nich.


