KI-Assistenten im Softwaretest
Einleitung: Das Konzept digitaler Helfer – KI-Assistenten – hat sich in den letzten Jahren in
verschiedenen Bereichen der Informationstechnologie deutlich etabliert. Diese intelligenten
Assistenten können basierend auf Benutzereingaben (sprachlich oder textuell) eine Vielzahl von
Aufgaben ausführen – von der Informationssuche bis hin zu automatisierten Aktionen. Alltagsnutzer
begegnen ihnen vor allem als persönliche digitale Begleiter auf Smartphones und intelligenten
Lautsprechern (sogenannte persönliche KI-Assistenten, auf Tschechisch „AI osobní asistent“). Es stellt
sich natürlich die Frage, welcher der „beste KI-Assistent“ für unterschiedliche Bedürfnisse ist – eine
eindeutige Antwort gibt es jedoch nicht, da jedes Tool seine Stärken und Schwächen hat. Im Bereich der
Softwaretests kommen KI-Assistenten in zweifacher Weise zum Einsatz: (1) als Werkzeuge, die Testern
helfen, ihre Arbeit effizienter zu gestalten, und (2) als komplexe Systeme, die selbst spezielles Testing
erfordern. In diesem Artikel betrachten wir beide Perspektiven – wir erklären, was KI-Assistenten sind,
welche Typen es gibt (Sprachassistenten, virtuelle, persönliche, domänenspezifische), wie es um ihre
mehrsprachige Unterstützung steht (z. B. ein kostenloser KI-Assistent auf Tschechisch), und wie sie
konkret zum Softwaretesten beitragen. Außerdem diskutieren wir die Vorteile und Herausforderungen,
die die Integration von KI-Assistenten in den Testprozess mit sich bringt.
Was sind KI-Assistenten? Definition und Zweck
Ein KI-Assistent ist im Grunde eine intelligente Softwareanwendung, die Befehle in natürlicher Sprache
(gesprochen oder geschrieben) versteht und über eine Konversationsschnittstelle verschiedene
Aufgaben für den Benutzer ausführt. Mit anderen Worten handelt es sich um einen virtuellen
Assistenten, der von künstlicher Intelligenz angetrieben wird und auf Anfrage reagiert und hilft – sei es
beim Programmieren einer Erinnerung, beim Suchen nach Informationen, beim Buchen eines Termins
oder bei komplexeren analytischen Aufgaben. Anfangs waren diese Assistenten noch recht einfach und
stützten sich auf vordefinierte Regeln und Antworten. Ein moderner KI-Assistent nutzt hingegen in der
Regel maschinelles Lernen und insbesondere fortgeschrittene Modelle zur Verarbeitung natürlicher
Sprache, wodurch er frei formulierte Fragen besser verstehen und seine Antworten dem Kontext
anpassen kann.
KI-Assistenten kann man als reaktive Agenten verstehen – sie warten auf Anweisungen des Nutzers
(z. B. einen Sprachbefehl oder eine Textfrage) und führen daraufhin eine Aktion aus oder geben eine
Empfehlung. Das unterscheidet sie von sogenannten KI-Agenten, die auch ohne direkten Befehl
autonom (proaktiv) handeln können, um ein bestimmtes Ziel zu erreichen. In der Praxis verschwimmt
die Grenze jedoch – fortgeschrittene Assistenten können von sich aus Lösungen vorschlagen, wenn der
Nutzer sie dazu ermächtigt.
Sprach- und virtuelle Assistenten in der Praxis
Ein sprachgesteuerter KI-Assistent auf einem Smartphone kann Benutzerbefehle mittels
Spracherkennung ausführen. Sprachassistenten (voice assistants) gehören zu den bekanntesten Typen
hierzu zählen beispielsweise Apple Siri, Amazon Alexa oder der Assistant von Google. Typische
Einsatzumgebungen sind Smartphones oder intelligente Lautsprecher, bei denen der Nutzer einen
„Befehl“ äußert (z. B. eine Frage oder Anweisung) und der KI-Sprachassistent daraufhin mit einer
sprachlichen Antwort reagiert oder eine Aktion ausführt. So kann der Google Assistant – ein beliebter
KI-Assistent auf Android-Geräten – auf das Kommando „Hey Google“ Informationen suchen, Musik
abspielen oder Smart-Home-Geräte steuern.
Ähnlich hat Siri auf dem iPhone (eingeführt 2011) der breiten Öffentlichkeit die Erfahrung der
sprachgesteuerten Bedienung des Telefons gebracht. Diese virtuellen Assistenten sind zu einem festen
Bestandteil des Ökosystems moderner Geräte geworden. Die Verbreitung von Sprachassistenten wird
durch Statistiken veranschaulicht: Im Jahr 2025 nutzen etwa 20,5 % der Menschen weltweit die
Sprachsuche, und es sind bis zu 8,4 Milliarden Sprachassistenten in Umlauf – mehr als die
Erdbevölkerung. In den USA wird geschätzt, dass über 153 Millionen Menschen Sprachassistenten
verwenden, wobei Siri mit ungefähr 86,5 Millionen Nutzern am beliebtesten ist. Diese Zahlen deuten
darauf hin, dass die in Geräte integrierte und kostenlos verfügbare KI-Assistenten-Technologie nun
massenhaft verbreitet ist und die Nutzer sich daran gewöhnt haben. Sprachassistenten helfen bei
alltäglichen Aufgaben wie Wetterabfragen, dem Stellen des Weckers, Navigation oder dem Diktieren
von Nachrichten und sparen dadurch Zeit – im Consumer-Bereich sind sie nahezu ein unverzichtbarer
Teil des Alltags.
Ein „virtueller Assistent“ ist ein weiter gefasster Begriff, der nicht nur Sprachassistenten, sondern
generell alle KI-Assistenten in softwarebasierter Form umfasst. Mitunter werden die Begriffe
Sprachassistent und virtueller Assistent auch synonym verwendet. Ein virtueller Assistent kann über
Sprache oder in Textform (Chatbot) kommunizieren. Im tschechischen Kontext wird der Begriff „AI
virtuální asistent“ (bzw. die Abkürzung AI asistent) verwendet, im Rumänischen der Ausdruck „asistent
virtual AI“ – beide bezeichnen einen digitalen Assistenten, der durch künstliche Intelligenz angetrieben
ist. Wichtig ist, dass – ob es nun um Sprachsteuerung oder Chat-Konversation geht – die natürliche
Interaktion der Schlüssel zum Erfolg dieser Tools ist. Der Nutzer hat nicht das Gefühl, komplizierte
Befehle wie an einen Computer eingeben zu müssen – es genügt, seine Frage in normaler Sprache zu
stellen, und der Assistent bemüht sich, zu helfen.
Aus Sicht der Softwaretester stellen Sprach- und virtuelle Assistenten eine interessante
Herausforderung dar. Das Testen eines solchen Systems bedeutet, nicht nur die funktionale Korrektheit
zu überprüfen (ob es die gewünschte Aktion ausführt), sondern auch das Verständnis verschieden
formulierter Eingaben, die Robustheit gegenüber Hintergrundgeräuschen oder Akzenten in der
Sprache und die Sicherheit (damit z. B. keine unautorisierte Person per Sprachbefehl an sensible
Informationen gelangt). Qualitätssicherungs-Experten (QA) müssen Testfälle entwerfen, die eine
Vielzahl von Szenarien abdecken – von verschiedenen Dialekten und Sprachen bis hin zu
ungewöhnlichen Fragen, auf die der Assistent nicht unangemessen reagieren darf.
Mehrsprachige Unterstützung von KI-Assistenten (Slowakisch, Tschechisch u. a.)
Einer der kritischen Faktoren für die Nutzbarkeit von KI-Assistenten ist die Unterstützung mehrerer
Sprachen. Weltweite Marktführer wie der Google Assistant oder Amazon Alexa begannen mit Englisch,
fügten jedoch nach und nach weitere Sprachen hinzu. Slowakische und tschechische Nutzer warteten
lange auf die Lokalisierung – so hat der Google Assistant offiziell erst um 2018–2019 die Unterstützung
für Tschechisch und Slowakisch eingeführt. Heute kommuniziert der Google Assistant bereits auf
Slowakisch und Tschechisch, was für viele entscheidend ist. Man kann also einen KI-Assistenten im
Telefon oder Lautsprecher auf Tschechisch nutzen – der Nutzer stellt seine Frage auf Tschechisch und
erhält die Antwort auf Tschechisch. Ebenso unterstützt Apple Siri seit 2016 beispielsweise Mandarin
oder Spanisch, und Microsoft Cortana (die sich allerdings inzwischen vom Markt zurückgezogen hat)
beherrschte mehrere Weltsprachen. Amazon Alexa sprach bis vor Kurzem weder Tschechisch noch
Slowakisch, was ihre Nutzung in der Slowakei und Tschechien einschränkte, doch es gibt inoffizielle
Wege und APIs, um die Sprachbarriere zu überwinden.
Wichtig ist, dass mit dem Aufkommen großer Sprachmodelle (LLM) die Möglichkeit entstanden ist,
praktisch jede beliebige Sprache zu unterstützen. Modelle wie GPT-4 (eingesetzt in ChatGPT) bewältigen
in hohem Maße auch sogenannte ressourcenschwache Sprachen. Das bedeutet, selbst wenn ein
Sprachassistent eine bestimmte Sprache offiziell nicht unterstützt, kann man einen textbasierten KI
Assistenten (Chatbot) als Vermittler nutzen. So kann heute beispielsweise ChatGPT als kostenloser KI
Assistent auf Tschechisch dienen – man muss ihm nur eine Frage auf Tschechisch stellen, und das
Modell antwortet fließend auf Tschechisch, obwohl es keine Sprachausgabe bietet. Ähnlich wäre es
möglich, mit ihm auf Slowakisch oder Rumänisch zu kommunizieren. In diesem Sinne sehen wir auch
das Entstehen lokaler Initiativen: Verschiedene Start-ups entwickeln Chatbots, die speziell für eine
bestimmte Sprache oder einen bestimmten Kulturkreis trainiert wurden. Zu nennen ist etwa das Projekt
„Alquist“ der Technischen Universität Prag (ČVUT), das auf konversationelle KI in tschechischer Sprache
abzielte, oder rumänische Projekte, die von der dortigen Regierung zur Entwicklung von KI-Assistenten
in Rumänisch gefördert werden. Obwohl diese lokalen Lösungen nicht den Ruhm globaler Akteure
erreicht haben, zeigen sie das Bestreben, KI für jede Sprache bereitzubringen.
Aus Marketingsicht begegnen uns sogar Keywords wie „AI asistent česky“ oder „asistent AI romană“
Nutzer suchen gezielt nach Assistenten, die „ihre“ Sprache sprechen. Unternehmen reagieren darauf:
Der Google Assistant beherrscht heute Dutzende Sprachen und verbessert kontinuierlich das
Verständnis lokaler Namen und Ausdrücke. Für Testing-Fachleute bedeutet das die Notwendigkeit von
Lokalisierungstests für KI-Assistenten: zu überprüfen, ob Sätze, die ins Slowakische oder Tschechische
übersetzt wurden, Sinn ergeben, ob der Assistent Ortsnamen korrekt ausspricht und ob er auch
umgangssprachliche Ausdrücke versteht. Zudem muss auch das Umschalten der Sprachen getestet
werden – viele Assistenten ermöglichen einen zweisprachigen Modus (z. B. Englisch und Slowakisch
gleichzeitig), was für Tester eine weitere Komplexitätsdimension darstellt.
Abschließend sei erwähnt, dass die meisten gängigen KI-Assistenten für Endnutzer kostenlos sind. Sie
sind entweder Teil des Betriebssystems (Siri auf Apple-Geräten, Google Assistant auf Android-Geräten)
oder frei im Internet verfügbar (ChatGPT hat eine kostenlose Version, Amazon Alexa erfordert kein
Abonnement etc.). Das trägt zu ihrer weiten Verbreitung bei – sobald ein Assistent Ihre Sprache
unterstützt und kostenlos ist, ist die Hürde, ihn auszuprobieren, sehr niedrig. Aus Anbietersicht handelt
es sich oft um eine strategische Investition: Amazon verkaufte beispielsweise seine smarten Echo
Lautsprecher mit Verlust, nur um Alexa in die Haushalte zu bringen. Ein kostenloser KI-Assistent im
Zuhause erhöht dann die Kundentreue und generiert Daten, die für Unternehmen wertvoll sind.
KI-Assistenten in speziellen Bereichen (Medizin, Unternehmen u. a.)
Während wir bisher hauptsächlich über allgemeine persönliche Assistenten gesprochen haben, bildet
eine wichtige Kategorie die domänenspezifischen KI-Assistenten. Das sind Assistenten, die für eine
konkrete Branche oder Aufgabe entwickelt wurden. Ein Beispiel ist ein medizinischer KI-Assistent (in der
Terminologie mancher ausländischer Artikel als asistent medical AI bezeichnet) – ein System, das Ärzten
und medizinischem Personal hilft. Ein solcher Assistent kann beispielsweise per Spracheingabe
Patientendaten aufzeichnen und in Echtzeit in Krankenakten eintragen, dem Arzt während der
Untersuchung Behandlungsprotokolle in Erinnerung rufen oder sogar auf Basis von Symptomen einen
möglichen Befund vorschlagen (natürlich hat der Mensch das letzte Wort). Statistiken deuten darauf
hin, dass bis zu 42 % der Gesundheitsorganisationen Sprachassistenztechnologie im Patientenkontakt
einsetzen oder dies planen. In der Praxis kann ein Arzt also sagen: „Assistent, dicte die Epikrise“, und
der KI-Assistent transkribiert und formatiert den Arztbrief bzw. beantwortet dem Patienten häufig
gestellte Fragen. Ähnliche Assistenten im Gesundheitswesen müssen strengen Tests unterzogen
werden – hier geht es oft um Leben und Tod, daher sind Genauigkeit und Sicherheit kritisch.
Getestet werden Szenarien wie: Erkennt der Assistent Arzneimittelnamen korrekt (die sich sehr ähnlich
anhören)? Speichert er sensible Daten sicher? Reagiert er angemessen, wenn der Patient ihm eine
Frage zu Symptomen stellt? (Übrigens haben etwa 21 % der Nutzer von Sprachassistenten bereits nach
Krankheitssymptomen oder Ärzten gefragt, das heißt, die Nachfrage seitens der Patienten ist
vorhanden.)
Abgesehen von der Medizin finden wir KI-Assistenten auch im Rechtswesen (z. B. als Hilfe beim
Durchsuchen von Tausenden Seiten juristischer Dokumente), im Finanzwesen (Finanzberater, die
Märkte analysieren), im Personalwesen (ein KI-Assistent für HR, der Bewerber vorsortiert) oder im
Kundensupport. Viele Unternehmen setzen Chatbots auf ihren Websites und Kommunikationskanälen
ein – diese virtuellen Agenten erledigen oft Routineanfragen von Kunden. Obwohl man sie eher
Chatbots als Assistenten nennt, handelt es sich technisch um ein verwandtes Konzept. Der Unterschied
besteht darin, dass ein Chatbot eingeschränkter ist (auf die FAQ des Unternehmens programmiert),
während ein KI-Assistent ein breiteres Aufgabenspektrum hat. Für Tester gilt jedoch auch hier die
Notwendigkeit gründlicher Tests: Versteht der Chatbot die umgangssprachlichen Ausdrücke der
Kunden? Kann er das Gespräch an einen Menschen übergeben, wenn die Frage zu komplex ist? Und
verbreitet er keine unangemessenen oder rechtlich riskanten Antworten?
Ein eigenes Kapitel bilden KI-Assistenten für Unternehmensanwendungen und die Teamproduktivität.
Tech-Giganten integrieren heute KI direkt in Office-Suiten – Microsofts Copilot in Office 365 hilft etwa, E
Mails zusammenzufassen oder eine Präsentation zu erstellen; Google hat seinen Assistenten in Google
Workspace, der Antworten vorschlagen und den Kalender organisieren kann. Diese Assistenten
brauchen nicht unbedingt eine „Persönlichkeit“ wie Alexa oder Siri; sie funktionieren eher im
Hintergrund als stille Helfer. Für Softwaretester stellen sie eine neue Schicht von Funktionalität dar, die
getestet werden muss – etwa ob die KI im Texteditor keine unpassenden Änderungen am Dokument
vornimmt, oder ob der Assistent im E-Mail-Client nicht die Privatsphäre verletzt, indem er gesammelte
Daten aus dem Unternehmen sendet.
Fortgeschrittene generative KI-Assistenten (ChatGPT, Gemini, DeepSeek…)
Ein Meilenstein in der Welt der KI-Assistenten war das Aufkommen der sogenannten generativen
Modelle auf Basis großer Sprachmodelle. Systeme wie OpenAIs ChatGPT (basierend auf den Modellen
GPT-3.5 und GPT-4) haben gezeigt, dass ein KI-Assistent durchaus in der Lage ist, ein recht tiefgehendes
Gespräch zu führen, umfangreiche Texte oder Programmcode zu generieren und sogar Gedichte oder
Bilder zu erstellen. ChatGPT, Ende 2022 gestartet, gewann rasch Hunderte Millionen Nutzer und wurde
de facto zum Standard für konversationelle KI-Assistenten. An diesem Erfolg sieht man, dass, sobald ein
Assistent ein gewisses Fähigkeitsniveau überschreitet, die Nutzer ihn für unglaublich vielfältige
Aufgaben einsetzen – von der Beantwortung allgemeiner Fragen, über das Erstellen von Inhalten, bis
hin zur technischen Hilfe (z. B. Unterstützung beim Programmieren oder bei mathematischen
Problemen).
Auf dem Markt generativer KI-Assistenten stieg jedoch schnell die Konkurrenz. Das Unternehmen
Google hat ein eigenes fortgeschrittenes Modell namens Gemini entwickelt, das seinen Assistant auf
ein neues Niveau heben soll. Der Google Assistant (der, wie erwähnt, seit 2016 in Betrieb ist) wurde
daher in den Jahren 2023–2024 von Grund auf auf die Gemini-Technologie umgestellt, damit er flüssiger
und dialogorientierter auf komplexe Anfragen reagieren kann. Google bezeichnet Gemini als „neuen
Typ eines persönlichen KI-Assistenten“ mit Fokus auf natürlicher Kommunikation und
fortgeschrittenem logischen Denken. Mit anderen Worten: Die Ambition ist, dass der KI-Assistent der
nächsten Generation von Google nicht nur einfache Sprachbefehle („Stell den Wecker“) bewältigt,
sondern auch komplexere Aufgaben wie die Planung eines ganzen Tages, die Lösung mehrstufiger
Probleme oder kreative Zusammenarbeit mit dem Nutzer. Solche Ziele bringen natürlich auch
Leistungsherausforderungen mit sich – Google selbst räumt ein, dass Gemini für einige Anfragen mehr
Zeit benötigt als die vorherige Generation, obwohl es auf ein viel breiteres Spektrum von Fragen
antworten kann.
Ein weiterer interessanter Name ist der DeepSeek-KI-Assistent (häufig gesucht als „deepseek ai
asistent“). Dabei handelt es sich um einen relativ neuen Akteur, der durch Meldungen im Januar 2025
bekannt wurde. Laut Experten der Penn State University ist der DeepSeek-KI-Assistent ein System
ähnlich ChatGPT oder Google Gemini, das für ein breites Aufgabenspektrum entwickelt wurde, jedoch
mit deklarierter Spezialisierung auf formale logische und mathematische Probleme. Das ist
bemerkenswert, denn ausgerechnet formales logisches Denken gilt als Schwachstelle vieler großer
Sprachmodelle. DeepSeek erregte auch dadurch Aufsehen, dass behauptet wird, es erreiche eine
konkurrenzfähige Leistung mit deutlich geringeren Anforderungen an Rechenressourcen – angeblich
genügen ihm etwa 2.000 Chips im Vergleich zu 16.000, die Konkurrenten benötigen, was ihn zehnmal
effizienter macht. Diese Meldungen erschütterten sogar kurzzeitig den Aktienmarkt der Chiphersteller,
denn sollten sie sich bestätigen, würde das eine günstigere und zugänglichere KI für die breite Masse
bedeuten. Bislang warten Experten jedoch auf unabhängige Tests, um zu sehen, ob DeepSeek die
hohen Erwartungen in der Praxis tatsächlich erfüllt. Auf jeden Fall signalisiert sein Aufkommen
zusammen mit weiteren Alternativen wie Claude von Anthropic, Open-Source-Modellen (LLaMA 2 von
Meta usw.) und spezialisierten KI-Systemen (wie AlphaCode von DeepMind für die Programmierung) –,
dass die Ära der fortgeschrittenen KI-Assistenten angebrochen ist und sich schnell entwickelt.
Für Softwaretester bringen generative Assistenten zwei Herausforderungen mit sich: Sie müssen
lernen, sie zu ihrem Vorteil zu nutzen, und zugleich deren Zuverlässigkeit zu testen. Einerseits kann ein
Tester ChatGPT eine Frage stellen wie: „Generiere Testfälle für die Funktion XY“ und erhält so Inspiration
oder einen grundsätzlichen Entwurf von Tests. Andererseits, wenn ein Unternehmen einen KI
Assistenten in sein Produkt integriert (z. B. einen Chatbot in eine mobile Banking-App für Kunden), muss
der Tester überprüfen, dass dieser Assistent korrekt funktioniert, die Datensicherheit nicht gefährdet
und die Kommunikationsrichtlinien des Unternehmens einhält. Und das ist keine leichte Aufgabe, da
die Antworten einer generativen KI nicht fest programmiert, sondern probabilistisch sind – sie können
sich bei kleinsten Änderungen der Eingabe unterscheiden. Darauf kommen wir in der Diskussion der KI
Testherausforderungen noch zurück.
KI-Assistenten als Werkzeuge für Entwickler und Tester
KI-Assistenten sind nicht nur Objekte des Testens, sondern werden immer häufiger selbst zu
Werkzeugen in den Händen von Testern und Entwicklern. Im Bereich der Softwareentwicklung haben in
den letzten zwei Jahren die sogenannten „AI Coding Assistants“ – Assistenten für die Programmierung
für Furore gesorgt. Das bekannteste Beispiel ist GitHub Copilot, das auf Basis eines Kommentars oder
unvollständigen Codes dem Entwickler die nächsten Programmzeilen vorschlägt. Copilot, das auf dem
Codex-Modell von OpenAI basiert, debütierte 2021 und erlangte schnell Popularität als „AI Pair
Programmer“. Es kann die Produktivität von Entwicklern steigern, ihnen das Schreiben von Boilerplate
Code ersparen und sogar helfen, Unit-Tests zu generieren. Studien und Blogbeiträge zeigen, dass
Copilot beim Schreiben von Testfällen nützlich sein kann, Randfälle vorschlägt oder bestehende Tests
schnell ergänzt. Aus Testersicht bedeutet das, dass man Routineaufgaben – zum Beispiel das Erstellen
eines grundlegenden Testgerüsts – dem KI-Assistenten überlassen kann und sich auf die Testlogik und
die Analyse der Ergebnisse konzentriert.
Nicht nur GitHub Copilot, auch weitere Tools betreten die Testing-Bühne. So hat die Testplattform
PractiTest einen eigenen KI-Assistenten namens Smart Fox integriert, der Testern beim Generieren und
Pflegen von Testfällen hilft. Smart Fox kann auf Basis der Funktionsbeschreibung einen Testfall
vorschlagen und nutzt interessanterweise maschinelles Lernen, um den Nutzen einzelner Tests zu
bewerten (den sogenannten Test Value Score). Das ermöglicht Teams, Szenarien zu priorisieren, die die
meisten Risiken abdecken. Ähnlich hat das Unternehmen LambdaTest den KI-Agenten KaneAI
vorgestellt, der als erster generativer Assistent für End-to-End-Tests bezeichnet wird. KaneAI basiert auf
einem LLM (Large Language Model) und ermöglicht Testern, Tests in natürlicher Sprache zu planen und
zu schreiben – man muss nur beschreiben, was getestet werden soll, und das Tool generiert
selbstständig Testscripte. Es kann sowohl UI- als auch API-Tests abdecken, lernt kontinuierlich aus
Testdurchläufen dazu und assistiert beim Debugging. Obwohl diese Funktionen fast futuristisch
klingen, sind sie bereits heute in frühen Versionen verfügbar.
Neben kommerziellen Tools gibt es auch Open-Source-Projekte und experimentelle Assistenten für
Tester. So präsentiert sich etwa das Plugin Continue für Visual Studio Code als KI-Assistent, der beim
Schreiben von Code und Tests hilft (ähnlich wie Copilot). In Testlaboren von Unternehmen wiederum
werden interne Chatbots entwickelt, die Test-Logs analysieren und auf Anomalien hinweisen können,
oder die die Ergebnisse der CI/CD-Pipeline überwachen und in natürlicher Sprache melden, was
schiefgelaufen ist. Stellen Sie sich zum Beispiel einen Slack-Bot vor, dem Sie schreiben: „Bitte finde
heraus, warum die nächtlichen Tests fehlgeschlagen sind“ – und er durchforstet die Logs und antwortet:
„Sie sind fehlgeschlagen, weil Dienst X einen 500er-Fehler zurückgab, vermutlich aufgrund eines
falschen Datenformats.“ Solche Prototypen entstehen bereits, und es ist zu erwarten, dass sie in naher
Zukunft zum festen Bestandteil des Werkzeugkastens von QA-Teams gehören werden.
Für Tester und Entwickler bieten KI-Assistenten also die Chance, bestimmte Teile der Arbeit zu
automatisieren und zu beschleunigen. Natürlich handelt es sich bislang nicht um einen allmächtigen
Ersatz – die Empfehlungen der KI müssen überprüft werden. Zum Beispiel kann von Copilot generierter
Code Fehler oder suboptimale Strukturen enthalten, sodass ein Mensch ihn durchsehen muss (Copilot
selbst weist darauf hin, dass generierter Code nicht fehlerfrei sein muss). Ebenso können von der KI
vorgeschlagene Testszenarien etwas Wichtiges auslassen. Im Idealfall erleichtert die KI jedoch
langweilige und repetitive Aufgaben – sie generiert Boilerplate-Code, schlägt Edge-Cases vor,
verarbeitet große Datenmengen – und der Mensch steuert kritisches Denken und Kreativität bei.
Vorteile von KI-Assistenten beim Testen von Software
Der Einsatz von KI-Assistenten im Testprozess bringt mehrere Vorteile mit sich, die sowohl die Qualität
als auch die Geschwindigkeit der QA-Prozesse erhöhen:•
- Automatisierung routinemäßiger Aufgaben: KI-Assistenten können sich wiederholende
Tätigkeiten übernehmen, wie z. B. die Generierung von Testdaten, die grundlegende Analyse von
Logs oder die Suche nach bekannten Bugs im Tracking-System. Dadurch gewinnen Tester Zeit
für anspruchsvollere Aufgaben und reduzieren das Risiko menschlicher Fehler bei monotoner
Arbeit.
- Schnelleres Feedback: Dank KI können die Ergebnisse bestimmter Tests nahezu in Echtzeit
gewonnen werden. Ein Assistent, der in die IDE integriert ist, kann beispielsweise bereits
während der Entwicklung auf potenzielle Fehler hinweisen (Shift-Left-Ansatz). Je früher ein Fehler
entdeckt wird, desto kostengünstiger ist seine Behebung.
- Breitere Testabdeckung: Generative KI kann zahlreiche Varianten von Testszenarien
vorschlagen, einschließlich solcher, auf die das Team vielleicht nicht gekommen wäre. Das hilft,
die Abdeckung zu erhöhen – verschiedene Eingaben, Randfälle oder unübliche Vorgehensweisen
werden getestet. Viele KI-Testtools (Smart Fox, KaneAI usw.) geben an, dass sie den Testumfang
effektiv erweitern können, ohne dass der Aufwand des Teams dramatisch steigt.
- Personalisiertes Lernen und Anpassung: Einige Assistenten können aus Firmendaten oder
Teampräferenzen lernen. Wenn die KI zum Beispiel bemerkt, dass in einem Projekt häufig ein
bestimmter Fehler auftritt, kann sie den Testern künftig proaktiv einen Test empfehlen, der auf
dieses Gebiet abzielt. Eine solche Anpassungsfähigkeit steigert langfristig die Effizienz – die
Werkzeuge „spielen sich ein“ auf das jeweilige Projekt. - Ständige Verfügbarkeit: Ein KI-Assistent wird nicht müde und ist rund um die Uhr verfügbar. Er
kann nonstop Systeme überwachen (z. B. Produktions-Logs auf Anomalien prüfen) oder auch
Testern um Mitternacht Fragen beantworten. Dies fördert eine agilere Entwicklung,
insbesondere in Teams, die über verschiedene Zeitzonen verteilt arbeiten.
Herausforderungen und Risiken beim Einsatz von KI-Assistenten im QA
Trotz unbestreitbarer Vorteile dürfen die Herausforderungen und Risiken, die KI-Assistenten im Bereich
Testing (und der Entwicklung allgemein) mit sich bringen, nicht übersehen werden:
- Unbestimmtheit und Reproduzierbarkeit: Die Ergebnisse von KI-Modellen sind nicht
deterministisch. Das bedeutet, dass ein und derselbe KI-Assistent auf sehr ähnliche Eingaben
leicht unterschiedlich antworten kann. Für das herkömmliche Testing ist das problematisch – wie
testet man eine Funktionalität, die nicht immer dasselbe Resultat liefert? Das Testen von KI
Systemen steht somit vor der Tatsache, dass die Resultate schwerer vorhersagbar und
reproduzierbar sind. Tester müssen Erfolgsmetriken anders definieren (statistisch, z. B. „95 % der
Antworten müssen korrekt sein“) und viel Aufwand in die Schaffung einer stabilen
Testumgebung stecken, um den Einfluss zufälliger Abweichungen zu minimieren. - „Halluzinationen“ und falsche Antworten: Generative KI-Modelle können mit Überzeugung
etwas behaupten, das faktisch falsch ist. In Bezug auf einen Testassistenten kann das bedeuten,
dass er einen fehlerhaften Test vorschlägt (z. B. mit einer falschen Annahme) oder ein Ergebnis
falsch bewertet. Der Tester muss dann Zeit darauf verwenden, zu überprüfen, ob die KI sich irrt.
Vertrauen vs. Kontrolle ist also ein zentrales Dilemma – man sollte sich auf die KI stützen, ihr
aber gleichzeitig nicht „blind vertrauen“. - Komplexität des Debuggings von KI-Systemen: Wenn herkömmliche Software versagt, lässt
sich die Ursache relativ direkt ermitteln (ein Bug im Code, eine fehlerhafte Bedingung etc.).
Wenn jedoch ein KI-Assistent eine falsche Antwort gibt, kann die Ursache tief in den Millionen
von Gewichten des neuronalen Netzes oder in ungeeigneten Trainingsdaten liegen. Es handelt
sich um das sogenannte Black-Box-Problem. Für Tester ist es eine Herausforderung, einen KI
Fehler überhaupt zu erkennen und ihn den Entwicklern verständlich zu melden. Daher
entstehen neue Disziplinen wie AI Explainability (Erklärbarkeit von KI) und Data Testing – der
Tester sieht vielleicht nicht direkt ins Modell, kann aber die Trainingsdaten auf Bias
(Verzerrungen) untersuchen oder die KI mit zahlreichen Eingaben testen und die Ausgaben
statistisch auswerten. - Sicherheits- und ethische Risiken: Wenn ein KI-Assistent Code generiert oder mit sensiblen
Daten arbeitet, besteht das potenzielle Risiko, dass er unbeabsichtigt eine Schwachstelle schafft
(z. B. Code vorschlägt, der Eingaben nicht ausreichend validiert) oder vertrauliche Informationen
preisgibt (z. B. einen Text generiert, der interne Daten enthält, die aus seinem Trainingssatz
stammen). Daher muss auch getestet werden, was der KI-Assistent alles weiß und preisgibt. Ein
bekanntes Beispiel ist der Fall, in dem man einem großen Sprachmodell durch geschicktes
Prompten sensible Informationen entlocken konnte, die Teil seines Trainingsdatensatzes waren.
Unternehmen führen daher Mechanismen wie Red Teaming ein – spezielle Tests, bei denen man
versucht, die KI absichtlich zu missbrauchen oder zu täuschen, um ihre Schutzmechanismen zu
überprüfen. Für QA bedeutet das, auch unorthodoxe Fälle in den Testplan aufzunehmen: zum
Beispiel zu versuchen, den Assistenten zum Regelverstoß zu verleiten (sogenannter Jailbreak
Prompt) und zu überprüfen, ob er standhält. - Anforderungen an neue Team-Fähigkeiten: Die Einführung von KI-Tools in das Testing
erfordert, dass Tester lernen, diese Tools effektiv zu verwenden. Das Konzept des Promptings
(Formulieren von Eingaben für die KI) ist eine neue Fähigkeit – ein guter Prompt Engineer kann
der KI bessere Ergebnisse entlocken. Das QA-Team muss sich also ständig weiterbilden, Updates
der KI-Modelle verfolgen und die Hyperparameter bzw. Einstellungen der Assistenten
abstimmen. Gleichzeitig wächst im Team das Bedürfnis nach Zusammenarbeit mit Data
Scientists und ML-Ingenieuren, besonders wenn das Unternehmen eigene KI-Modelle entwickelt.
Multidisziplinarität wird entscheidend sein – ein reiner „Klick-Tester“ wird in Zukunft vielleicht
nicht mehr genügen, er muss auch die Grundlagen des maschinellen Lernens und der Statistik
verstehen, um KI gründlich testen zu können. - Organisatorische und prozessuale Änderungen: Schließlich kann der Einsatz von KI den
Workflow verändern. Ein Assistent kann z. B. Testberichte eigenständig generieren, wodurch sich
die Rolle des Testers beim Reporting wandelt – er wird eher zum Validierer der KI-Berichte. Oder
die KI kann bestimmte Tests in der Produktion autonom ausführen, was die Deployment
Prozesse (DevOps) beeinflusst. Unternehmen müssen also ihre Prozesse anpassen,
Verantwortlichkeiten definieren (wer „erzieht“ und pflegt den KI-Assistenten) und auch rechtliche
Fragen klären (z. B. das Urheberrecht für von der KI generierten Code, die Haftung für einen von
der KI übersehenen Fehler etc.).
Fazit
KI-Assistenten haben sich von einer Science-Fiction-Idee zu einem alltäglichen und nützlichen Werkzeug
im täglichen Leben und in der professionellen Sphäre entwickelt. Für die Softwaretest-Community
stellen sie eine doppelte Chance dar: Einerseits können sie das Testing selbst effizienter machen (die
Testvorbereitung beschleunigen, die Analyse automatisieren, die Abdeckung erweitern), und
andererseits eröffnen sie ein neues Betätigungsfeld für QA-Ingenieure – das Testen von KI-Systemen
erfordert Kreativität, Gründlichkeit und ständiges Lernen.
Die heutigen KI-Assistenten (sei es der virtuelle Assistent im Smartphone, ein KI-Assistent auf
Tschechisch in einem Übersetzer, oder ein spezialisierter personal AI assistant, der einem Entwicklerteam
hilft) sind erst der Anfang. Ihre Fähigkeiten werden voraussichtlich weiter wachsen und immer stärker
in die Werkzeuge integriert werden, die wir nutzen. Für Tester bedeutet das, dass Wandel die einzige
Konstante ist – so wie einst der Übergang vom manuellen zum automatisierten Testen Anpassung
erforderte, müssen wir jetzt KI in unser Skillset aufnehmen.
Abschließend lässt sich sagen, dass der Schlüssel zum erfolgreichen Zusammenleben mit KI-Assistenten
Balance ist: ihre Vorteile nutzen, aber gegenüber ihren Unzulänglichkeiten wachsam bleiben. KI sollte
unser „Kollege“ sein, der einen Teil der Arbeit erledigt, doch die Verantwortung für die Qualität bleibt
bei uns. In der Testing-Fachgemeinschaft bildet sich schon jetzt ein Konsens, dass die Kombination aus
menschlichem kritischem Denken und der Schnelligkeit von KI-Tools die besten Ergebnisse bringt. KI
Assistenten sind somit ein willkommener Zuwachs zur Familie der Testwerkzeuge – wenn wir sie richtig
zähmen und einsetzen, können sie wesentlich zu einer höheren Qualität der von uns gelieferten
Software beitragen.