Anwenderoberflächen KI-Assistent zur plattformübergreifenden UI-Entwicklung

Von Sebastian Gerstl 3 min Lesedauer

Anbieter zum Thema

Qt-Benutzer können jetzt große Sprachmodelle (Large Language Models; LLM) ihrer Wahl, einschließlich selbst gehosteter Modelle, in ihren Arbeitsablauf integrieren, um den Zeitaufwand für alltägliche Aufgaben bei der plattformübergreifenden Entwicklung zu verringern

Der QT AI Assistant erlaubt die Einbindung externer oder eigener großer KI-Sprachmodelle, um Entwickler direkt bei der Automatisierung von Routineaufgaben oder mit Hilfestellung bei der Codegenerierung zu unterstützen.(Bild:  QT Group)
Der QT AI Assistant erlaubt die Einbindung externer oder eigener großer KI-Sprachmodelle, um Entwickler direkt bei der Automatisierung von Routineaufgaben oder mit Hilfestellung bei der Codegenerierung zu unterstützen.
(Bild: QT Group)

Die Qt Group hat die Verfügbarkeit des Qt AI Assistant angekündigt. Der KI-Assistent dient als experimentelles Tool zur Rationalisierung der plattformübergreifenden Entwicklung von Benutzeroberflächen (UI). Sein Ziel ist es, sich wiederholende Aufgaben bei der UI-Entwicklung zu reduzieren, die oft keine Programmierung erfordern. Dadurch können Entwickler mehr Zeit für die produktiven und kreativen Aspekte des Schreibens von innovativem Code aufwenden. Das Tool unterstützt selbst gehostete Sprachmodelle (über die Cloud oder lokal), ohne dass ein Drittanbieter für KI-Unterstützung erforderlich ist.

Der Qt AI Assistant soll Entwickler bei der Erstellung von Anwendungsoberflächen mit Qt Framework beraten. Darüber hinaus automatisiert das Tool manuelle Aufgaben wie das Schreiben von Unit-Testfällen, Code-Dokumentation und sich wiederholendem Code. Benutzer fordern diese Beratung über ein Eingabeaufforderungsfenster und Schnellzugriffsbefehle im Code-Editor von Qt Creator an (der für die Erstellung und Änderung von plattformübergreifenden Anwendungen verwendet wird).

Der KI-gestützte Assistent ist mit verschiedenen Programmiersprachen wie C++ und Python kompatibel, wurde aber speziell auf Tausende von realen Anwendungsfällen von QML und Qt Quick trainiert. Dabei handelt es sich um die Sprache und das Toolkit des Qt Frameworks für das Design von Aussehen und Verhalten von Anwendungen. Das bedeutet, dass Entwickler zum Beispiel den benötigten sich wiederholenden QML-Code generieren können, während sie Benutzeroberflächen erstellen, und so Zeit für komplexere Programmieraufgaben gewinnen.

Der Qt AI Assistant unterstützt jedes Sprachmodell, das Entwickler verwenden möchten. Die aktuell erschienene erste Version ist so vorkonfiguriert, dass die folgenden Modelle sofort unterstützt werden:

  • Claude 3.5 Sonnet (chat + completions)
  • OpenAI GPT-4o (chat + completions)
  • Llama 3.3 70B QML (chat)
  • Code Llama 13B QML (code completions)
  • Code Llama 7B (code completions)

„Die Branche hat sich mit KI-Ankündigungen überschlagen - jeder hat sein bevorzugtes Sprachmodell, und das wollen wir niemandem wegnehmen“, sagt Peter Schneider, Senior Product Lead bei der Qt Group. „Es war wichtig, dass wir einen offenen Ansatz unterstützen und Unternehmen die Möglichkeit geben, ihre bevorzugte LLM-Einsatzmethode frei zu wählen.“

Die Flexibilität des Qt AI Assistant ermöglicht es, dass verschiedene Anforderungen zur Inhaltserstellung separat an verschiedene Modelle weitergeleitet werden können. Zum Beispiel kann ein Entwickler QML-Code an einen spezialisierten LLM weiterleiten, während er anderen Code an einen anderen LLM weiterleitet. Auf diese Weise erhalten Entwickler immer Code-Vorschläge von den leistungsstärksten Modellen für ihre Programmiersprache und nicht von der LLM, die über einen Drittanbieter von KI-Assistenten verfügbar ist.

Das Tool verspricht ebenso, Sicherheitsbedenken für eingebettete Geräte und High-End-Desktop-Anwendungen, die mit Qt Framework entwickelt wurden, auszuräumen. Durch die Unterstützung von selbst gehosteten Modellen könnten demnach Unternehmen private Cloud-Bereitstellungen von LLMs durchführen. Dadurch lassen sich Code-Lecks vermeiden und geistiges Eigentum besser schützen. Entwickler können sich sogar dafür entscheiden, den Qt AI Assistant nur manuell auszulösen, um unerwünschte Unterbrechungen während des Programmierens zu vermeiden.

Die Unterstützung weiterer Modelle ist für die nahe Zukunft geplant. Später in diesem Jahr will die Qt Group weitere fein abgestimmte Versionen von LLMs veröffentlichen - beginnend mit Llama 3.3 70B und Code Llama 13B - die auf mehr als 4.000 von Menschen erstellten und validierten QML-Codefragmenten trainiert wurden. Diese werden auf dem Hugging-Face-Portal kostenlos heruntergeladen werden können, auch für Open-Source-Qt-Entwickler, um sie mit Assistenten von Drittanbietern zu verbinden. (sg)

(ID:50296063)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung