Leistungsmerkmale der Lenovo ThinkStation PGX

Kompakte AI-Workstation für den Schreibtisch
Die ThinkStation PGX bringt eine auf KI-Entwicklung ausgelegte Plattform in ein besonders kompaktes Format. Das System eignet sich für Teams, die lokale Rechenressourcen für Entwicklung, Tests und Inferenz nutzen möchten, ohne dafür unmittelbar auf größere Rechenzentrums- oder Cloud-Infrastrukturen angewiesen zu sein.
NVIDIA GB10 Grace Blackwell als technisches Fundament der ThinkStation PGX
Im Zentrum der Workstation arbeitet der NVIDIA GB10 Grace Blackwell Superchip mit 20 Arm-Kernen. Ergänzt wird die Plattform durch integrierte Blackwell-Grafik mit CUDA Cores, Tensor Cores der 5. Generation sowie RT Cores der 4. Generation. Damit richtet sich das System an anspruchsvolle KI- und Compute-Workloads, die von moderner Beschleunigung profitieren.

Entwickelt für Prototyping, Fine-Tuning und Inferenz
Die ThinkStation PGX unterstützt ein breites Spektrum an AI-Anwendungsfällen, darunter Machine Learning, klassische Statistik, Computer Vision, generative KI, LLM-nahe Workloads, Robotik und agentische Entwicklung. Das System bietet eine kontrollierte lokale Entwicklungsumgebung, mit der Modelle effizient vorbereitet, getestet und iteriert werden können.

Vorkonfiguriertes Software-Ökosystem
Vorinstalliert sind NVIDIA DGX OS sowie der NVIDIA AI Software Stack. Zusätzlich werden bekannte Werkzeuge wie PyTorch, Jupyter Notebooks, AI Workbench und weitere NVIDIA-Komponenten unterstützt. Dadurch lässt sich die ThinkStation PGX schnell in bestehende Entwicklungs- und Validierungsprozesse integrieren.

Starke Konnektivität für moderne AI-Umgebungen
Die Plattform bietet USB4-basierte USB-C-Anschlüsse mit DisplayPort 2.1, HDMI, 10GbE-Netzwerk und QSFP-Schnittstellen. Dadurch eignet sich die ThinkStation PGX für performante Peripherie-, Netzwerk- und Multi-System-Szenarien in professionellen Entwicklungsumgebungen.
Skalierbarkeit für größere Modelle
Bereits als Einzelgerät ist die ThinkStation PGX für anspruchsvolle AI-Workloads ausgelegt. Werden zwei Systeme gekoppelt, lassen sich noch größere Modelle verarbeiten. Dadurch entsteht eine interessante Option für Teams, die lokal entwickeln möchten und zugleich wachsende Modellgrößen im Blick haben.
Typische Einsatzbereiche
- Lokale KI-Entwicklung und Modell-Prototyping
- Fine-Tuning und Inferenz generativer KI-Modelle
- Machine-Learning- und Data-Science-Workflows
- Computer Vision und Bildverarbeitung
- Robotik, Forschung und experimentelle AI-Projekte
- Entwicklungsumgebungen für Teams, die Cloud-Abhängigkeiten reduzieren möchten