Der Hardware- und Softwarehersteller Razer hat im Rahmen des „GDC Festival of Gaming“ neue Technologien vorgestellt, die auf künstlicher Intelligenz basieren und die Spieleentwicklung unterstützen sollen. Im Mittelpunkt des „Future of Play“-Showcase stehen Lösungen für automatisierte Entwicklungsprozesse, Qualitätssicherung und multisensorische Spielerlebnisse.

Angesichts eines erwarteten weltweiten Spielemarktes von rund 206,5 Milliarden US-Dollar bis zum Jahr 2028 und einer Spielerschaft von fast vier Milliarden Menschen greifen Entwicklungsstudios zunehmend auf KI-Technologien zurück, um Produktionsprozesse zu beschleunigen und gleichzeitig Qualitätsstandards zu halten. Razer präsentierte auf der Veranstaltung drei Systeme, die auf unterschiedliche Bereiche der Spieleentwicklung abzielen.

Neue Werkzeuge für Entwicklung, Tests und Immersion

Ein zentraler Bestandteil der Präsentation ist der digitale Assistent Razer AVA. Das System wurde ursprünglich im Jahr 2025 als „Project AVA“ vorgestellt und später auf der „CES 2026“ als holografischer Desktop-Begleiter präsentiert. In der aktuellen Version wurde der Assistent zu einem sogenannten agentischen System weiterentwickelt. Dieses soll Nutzerabsichten erkennen, Aufgaben planen und mehrstufige Prozesse über verschiedene Anwendungen, Dienste und Geräte hinweg ausführen können.

Die Plattform basiert auf einem neuen Steuerungssystem namens „Razer Inference Control Plane“. Dieses verteilt Anfragen automatisch zwischen lokal ausgeführten KI-Modellen und Cloud-Diensten. Dadurch sollen komplexe Aufgaben mit geringerer Verzögerung und höherer Effizienz bearbeitet werden. Zusätzlich kann AVA mit Drittanbieter-Diensten und Anwendungen interagieren, etwa mit Chat-Plattformen oder Streaming-Services wie „Spotify“. Darüber hinaus unterstützt das System automatisierte Arbeitsabläufe sowie die Kommunikation zwischen mehreren AVA-Instanzen, um beispielsweise Terminabsprachen zwischen verschiedenen Nutzern zu koordinieren. Eine Beta-Phase über „Razer Cortex“ ist bereits angekündigt; erste Einladungen sollen ab dem zweiten Quartal 2026 versendet werden.

Ein weiteres vorgestelltes Werkzeug ist der Razer QA Companion-AI. Die Lösung richtet sich an Qualitätssicherungsprozesse in der Spieleentwicklung und wurde bereits auf der „GDC 2025“ erstmals präsentiert. Die neue Version erweitert das System um Funktionen für visuelle Tests sowie um eine sogenannte Zero-Integration-Bereitstellung. Dadurch kann das Werkzeug laut Hersteller ohne zusätzliche Software-Development-Kits, Plug-ins oder Änderungen am Quellcode eingesetzt werden.

Der QA Companion-AI analysiert Gameplay-Material, erkennt visuelle Fehler etwa bei Physik, Kollisionen oder Animationen und erstellt automatisch Fehlerberichte inklusive Videoaufnahmen und reproduzierbarer Testschritte. Zusätzlich kann das System Testfälle auf Basis von Eingaben der Tester oder aus Game-Design-Dokumenten generieren. Geplant sind zudem KI-gesteuerte Gameplay-Agenten, die bestimmte Tests eigenständig durchführen und deren Ergebnisse automatisch auswerten.

Mit der Razer Adaptive Immersive Experience wurde außerdem ein System vorgestellt, das multisensorische Effekte während des Spielens erzeugt. Die Technologie kombiniert eine Effektbibliothek mit einer Laufzeitumgebung, die Audio- und Bildsignale eines Spiels analysiert und daraus in Echtzeit Haptik- und Beleuchtungseffekte generiert. Das System ist Teil des Entwicklerökosystems „WYVRN“.

Die Lösung nutzt bestehende Technologien wie „Razer Sensa HD Haptics“, „Razer Chroma RGB“ und „THX Spatial Audio+“. Eine neue Funktion namens Dynamic Haptics verbindet dabei vordefinierte Haptik-Effekte mit einer Audio-to-Haptics-Technologie, die Spielgeräusche unmittelbar in taktile Rückmeldungen umwandelt. Dadurch sollen sowohl gezielt gestaltete Momente als auch allgemeine Umgebungsreaktionen während des Spielens unterstützt werden.

Nach Angaben des Unternehmens lässt sich das System mit gängigen Entwicklungsumgebungen wie „Unity“ und „Unreal Engine“ nutzen und unterstützt zudem eine Integration in Audiopipelines über „Wwise“. Ziel ist es, multisensorische Effekte mit geringerem Integrationsaufwand in Spieleproduktionen einzubinden.

Die Razer Adaptive Immersive Experience soll schrittweise ab dem ersten Quartal 2026 verfügbar gemacht werden.