Praca z AI w chmurze wiąże się z przesyłaniem danych wejściowych na serwer zewnętrzny, co może być kłopotliwe w przypadku wrażliwych lub chronionych informacji. Aby rozwiązać ten problem NVIDIA udostępni bibliotekę TensorRT-LLM dla systemu Windows. Dostęp do niej przez środowisko programistyczne API działa na podobnej zasadzie, co w przypadku znanych i popularnych interfejsów, takich jak API firmy OpenAI. Od teraz, zmieniając tylko jedną lub dwie linijki kodu, deweloperzy mogą skorzystać z własnej karty graficznej do obliczeń związanych z AI, dzięki czemu mogą przechowywać dane na swoich komputerach i nie przesyłać ich do chmury.