Asistentes de IA en las pruebas de software

MIN
08 Jun 2025

Introducción: El concepto de ayudantes digitales – los asistentes de IA – se ha afianzado notablemente
en los últimos años en varias áreas de la tecnología de la información. Estos asistentes con inteligencia
artificial pueden, a partir de entradas del usuario (ya sean de voz o de texto), llevar a cabo una multitud
de tareas, desde la búsqueda de información hasta acciones automatizadas. Los usuarios comunes los
encuentran principalmente como guías digitales personales en teléfonos inteligentes y altavoces
inteligentes (los llamados asistentes personales de IA, en checo “AI osobní asistent”). Por supuesto,
surge la pregunta de cuál es el “mejor asistente de IA” para diversas necesidades – sin embargo, no
existe una respuesta clara, ya que cada herramienta tiene puntos fuertes y débiles. En el ámbito de las
pruebas de software, los asistentes de IA se aplican de dos maneras: (1) como herramientas que
ayudan a los testers a hacer su trabajo más eficiente, y (2) como sistemas complejos que en sí mismos
requieren pruebas específicas. En este artículo abordaremos ambas perspectivas: explicaremos qué son
los asistentes de IA, qué tipos existen (de voz, virtuales, personales, especializados en dominios), qué
soporte multilingüe tienen (por ejemplo, un asistente de IA gratuito en checo) y cómo contribuyen
concretamente a las pruebas de software. A la vez, analizaremos los beneficios y desafíos que conlleva
la integración de asistentes de IA en el proceso de pruebas.


¿Qué son los asistentes de IA? Definición y propósito


Un asistente de IA es esencialmente una aplicación de software inteligente que entiende comandos en
lenguaje natural (hablado o escrito) y realiza diversas tareas para el usuario a través de una interfaz
conversacional. En otras palabras, se trata de un asistente virtual impulsado por inteligencia artificial
que responde y ayuda bajo demanda – ya sea para programar un recordatorio, buscar información,
reservar una cita o realizar tareas analíticas más complejas. Al principio, estos asistentes eran bastante
sencillos y se basaban en reglas y respuestas programadas de antemano. Sin embargo, un asistente de
IA moderno generalmente utiliza aprendizaje automático y, en particular, modelos avanzados de
procesamiento del lenguaje natural, lo que le permite comprender mejor preguntas formuladas
libremente y adaptar sus respuestas al contexto.


Se puede entender a los asistentes de IA como agentes reactivos – esperan las instrucciones del usuario
(por ejemplo, un comando de voz o una pregunta escrita) y, en base a ello, realizan alguna acción o
brindan una recomendación. Esto los distingue de los llamados agentes de IA, que pueden actuar de
forma autónoma (proactiva) incluso sin un comando directo, con el objetivo de alcanzar una meta
determinada. En la práctica, sin embargo, la frontera se difumina – los asistentes más avanzados
pueden proponer soluciones por iniciativa propia si el usuario los faculta para ello.


Asistentes de voz y virtuales en la práctica


Un asistente de IA de voz en un teléfono inteligente puede cumplir órdenes del usuario mediante
reconocimiento de voz. Los asistentes de IA de voz (voice assistants) se encuentran entre los tipos más
conocidos – en esta categoría están, por ejemplo, Apple Siri, Amazon Alexa o el Asistente de Google. El
entorno típico es un teléfono inteligente o un altavoz inteligente, donde el usuario enuncia un
“comando” (por ejemplo, una pregunta o instrucción) y el asistente de voz de IA responde con voz o
realiza una acción. Por ejemplo, el Asistente de Google – un popular asistente de IA en dispositivos
Android – puede, al comando “Hey Google”, buscar información, reproducir música u operar
dispositivos inteligentes del hogar.


De manera similar, Siri en el iPhone (lanzada en 2011) llevó al público general la experiencia del control
vocal del teléfono. Estos asistentes virtuales se han convertido en una parte habitual del ecosistema de
dispositivos modernos. Las estadísticas ilustran la expansión de los asistentes de voz: en 2025,
aproximadamente el 20,5 % de las personas en el mundo utilizan la búsqueda por voz, y hay hasta
8,4 mil millones de asistentes de voz en circulación – lo que supera la población de la Tierra. En Estados
Unidos se estima que más de 153 millones de personas usan asistentes de voz, siendo Siri la más
popular con aproximadamente 86,5 millones de usuarios. Estas cifras sugieren que la tecnología de
asistente de IA gratuita integrada en los dispositivos está disponible de forma masiva y los usuarios se
han acostumbrado a ella. Los asistentes de voz ayudan con tareas cotidianas como averiguar el clima,
configurar alarmas, navegar o dictar mensajes, ahorrando así tiempo – en el sector de consumo son
prácticamente una parte imprescindible de la vida diaria.


“Asistente virtual” es un término más amplio que abarca no solo a los asistentes de voz, sino en general
a cualquier asistente de IA que existe en forma de software. A veces los términos asistente de voz y
asistente virtual se usan indistintamente. Un asistente virtual puede comunicarse por voz o por texto
(chatbot). En el contexto checo se utiliza el término “AI virtuální asistent” (o la abreviatura AI asistent),
en rumano la expresión “asistent virtual AI” – ambos se refieren a un asistente digital impulsado por
inteligencia artificial. Lo importante es que, ya sea control por voz o conversación de chat, la interacción
natural es la base del éxito de estas herramientas. El usuario no siente que deba introducir comandos
complicados como en una computadora – basta con preguntar en lenguaje común y el asistente
intentará cumplir la petición.


Desde el punto de vista de las pruebas de software, los asistentes de voz y virtuales representan un
desafío interesante. Probar un sistema de este tipo significa verificar no solo la corrección funcional (si
realiza la acción requerida), sino también la comprensión de diversas formulaciones de entrada, la
robustez frente al ruido o al acento en la voz, y la seguridad (por ejemplo, para que una persona no
autorizada no pueda obtener mediante la voz información sensible). Los expertos en Garantía de
Calidad (QA) deben diseñar pruebas que cubran multitud de escenarios – desde varios dialectos e
idiomas hasta preguntas inusuales a las que el asistente no debería responder de manera inapropiada.

Soporte multilingüe de los asistentes de IA (eslovaco, checo y otros)


Uno de los factores críticos de la usabilidad de los asistentes de IA es el soporte de múltiples idiomas.
Líderes mundiales como el Asistente de Google o Amazon Alexa comenzaron con el inglés, pero
gradualmente añadieron más idiomas. Los usuarios eslovacos y checos esperaron mucho tiempo a que
llegara la localización – por ejemplo, el Asistente de Google lanzó oficialmente el soporte para checo y
eslovaco aproximadamente en 2018–2019. Hoy en día, el Asistente de Google ya se comunica en
eslovaco y en checo, lo cual es clave para muchos. Es decir, podemos tener un asistente de IA en checo
en el teléfono o altavoz – el usuario hace una pregunta en checo y recibe la respuesta en checo. Del
mismo modo, Apple Siri ha soportado desde 2016, por ejemplo, mandarín y español, y Microsoft
Cortana (que ya se ha retirado del mercado) manejaba varios idiomas mundiales. Amazon Alexa hasta
hace poco no hablaba ni checo ni eslovaco, lo que limitaba su uso en esos países, pero existen vías no
oficiales y API para salvar la barrera del idioma.


Lo importante es que con la llegada de los grandes modelos de lenguaje (LLM) se ha abierto la
posibilidad de admitir prácticamente cualquier idioma. Modelos como GPT-4 (usado en ChatGPT)
dominan en gran medida incluso los llamados idiomas de pocos recursos. Esto significa que, aunque un
asistente de voz oficialmente no admita un idioma determinado, se puede usar un asistente de IA de
texto (chatbot) como intermediario. Por ejemplo, hoy ChatGPT sirve como un asistente de IA gratuito
en checo – solo hay que hacerle una pregunta en checo y el modelo responderá fluidamente en checo,
aunque no ofrezca una salida de voz. De manera similar, sería posible comunicarse con él en eslovaco o
rumano. En este sentido, vemos también el surgimiento de iniciativas locales: varias startups están
creando chatbots entrenados específicamente para cierto idioma o ámbito cultural. Podemos
mencionar, por ejemplo, el proyecto “Alquist” de la ČVUT (Universidad Técnica Checa), que se centró en
IA conversacional en checo, o proyectos rumanos apoyados por su gobierno para el desarrollo de
asistentes de IA en rumano. Aunque estas soluciones locales no alcanzaron la fama de los actores
globales, muestran el esfuerzo por llevar la IA a cada idioma.


Desde la perspectiva del marketing, incluso nos encontramos con palabras clave como “AI asistent
česky” o “asistent AI romană” – los usuarios buscan deliberadamente asistentes que “hablen” su idioma.
Las empresas responden a eso: el Asistente de Google hoy domina decenas de idiomas y mejora
constantemente en la comprensión de nombres locales o expresiones. Para los especialistas en pruebas
esto significa la necesidad de realizar pruebas de localización de los asistentes de IA: verificar si las
frases traducidas al eslovaco o checo tienen sentido, si el asistente pronuncia correctamente los
nombres locales, y si entiende también expresiones coloquiales. Además, hay que probar también el
cambio de idioma – muchos asistentes permiten un modo bilingüe (por ejemplo, inglés y eslovaco a la
vez), lo que añade otra dimensión de complejidad para los testers.


Por último, cabe mencionar que la mayoría de los asistentes de IA comunes son gratuitos para los
usuarios finales. O bien forman parte del sistema operativo (Siri en dispositivos Apple, Asistente de
Google en Android) o están disponibles libremente en Internet (ChatGPT tiene una versión gratuita,
Amazon Alexa no requiere suscripción, etc.). Eso contribuye a su amplia adopción – una vez que un
asistente admite tu idioma y es gratuito, la barrera para probarlo es muy baja. Desde la perspectiva de
los proveedores, a menudo es una inversión estratégica: por ejemplo, Amazon vendió sus altavoces
inteligentes Echo con pérdidas solo para expandir Alexa en los hogares. Un asistente de IA gratuito en
el hogar luego aumenta la lealtad de los clientes y genera datos que son valiosos para las empresas.


Asistentes de IA en dominios especializados (medicina, empresas, etc.)


Si hasta ahora hemos hablado principalmente de asistentes personales generales, una categoría
importante la constituyen los asistentes de IA especializados por dominio. Son asistentes diseñados
para un sector o tarea específicos. Un ejemplo puede ser un asistente de IA médico (llamado asistent
medical AI en la terminología de algunos artículos extranjeros) – un sistema que ayuda a los médicos y
al personal sanitario. Dicho asistente puede, por ejemplo, registrar por voz y anotar los registros
médicos durante una consulta, recordar al médico protocolos de tratamiento o incluso sugerir un
posible diagnóstico basado en los síntomas (por supuesto, la última palabra la tiene el ser humano). Las
estadísticas indican que hasta un 42 % de las organizaciones sanitarias utilizan o planean utilizar
tecnología de asistencia de voz en la interacción con pacientes. En la práctica, un médico puede decir:
«Asistente, dicta la epicrisis» y el asistente de IA transcribirá y formateará el informe médico, o
responderá al paciente preguntas frecuentes. Asistentes similares en la sanidad deben pasar pruebas
estrictas – aquí a menudo está en juego la vida, por lo que la precisión y la seguridad son críticas.


Se prueban escenarios como: ¿Reconoce el asistente correctamente los nombres de medicamentos
(que suenan muy parecidos)? ¿Almacena los datos sensibles de forma segura? ¿Responde
adecuadamente si un paciente le hace una pregunta sobre síntomas? (Por cierto, aproximadamente el
21 % de los usuarios de asistentes de voz ya han preguntado sobre síntomas de salud o a profesionales
médicos, así que existe la demanda por parte de los pacientes).


Además de la medicina, encontramos asistentes de IA también en el campo legal (por ejemplo, como
apoyo al revisar miles de páginas de documentos jurídicos), en finanzas (asesores financieros que
analizan mercados), en recursos humanos (un asistente de IA para RR. HH. que preselecciona
candidatos) o en atención al cliente. Muchas empresas implementan chatbots en sus sitios web y
canales de comunicación – estos agentes virtuales a menudo atienden consultas rutinarias de los
clientes. Aunque se les suele llamar más chatbots que asistentes, técnicamente es un concepto afín. La
diferencia es que un chatbot suele ser más limitado (programado para las FAQ de la empresa), mientras
que un asistente de IA tiene un campo de acción más amplio. Para los testers, sin embargo, también
aquí rige la necesidad de pruebas exhaustivas: comprobar si el chatbot entiende el lenguaje coloquial
de los clientes, si sabe transferir la conversación a una persona cuando la pregunta es demasiado
compleja, y si no difunde, por ejemplo, respuestas inapropiadas o con riesgo legal.


Un capítulo especial lo constituyen los asistentes de IA para aplicaciones empresariales y la
productividad en equipo. Los gigantes tecnológicos integran hoy la IA directamente en las suites
ofimáticas – Microsoft Copilot en Office 365 ayuda a resumir correos electrónicos o crear
presentaciones, Google tiene su asistente en Google Workspace que puede sugerir respuestas y
organizar el calendario. Estos asistentes no necesitan tener “personalidad” como Alexa o Siri; más bien
funcionan en segundo plano como ayudantes silenciosos. Para los testers de software representan una
nueva capa de funcionalidad que se debe probar – por ejemplo, si la IA en un editor de texto no hace
modificaciones inapropiadas del documento, o si el asistente en el cliente de correo electrónico no viola
la privacidad al enviar los datos recopilados fuera de la empresa.


Asistentes de IA generativos avanzados (ChatGPT, Gemini, DeepSeek…)


Un momento decisivo en el mundo de los asistentes de IA fue la aparición de los llamados modelos
generativos basados en grandes modelos de lenguaje. Sistemas como ChatGPT de OpenAI (construido
sobre los modelos GPT-3.5 y GPT-4) demostraron que un asistente de IA puede llevar una conversación
bastante profunda, generar textos extensos, código de programación e incluso crear poemas o
imágenes. ChatGPT, lanzado a finales de 2022, rápidamente obtuvo cientos de millones de usuarios y se
convirtió en el estándar de facto para asistentes de IA conversacionales. Este éxito demuestra que si un
asistente logra superar cierto nivel de capacidades, los usuarios comenzarán a utilizarlo para una gama
increíblemente amplia de tareas – desde responder preguntas generales y crear contenido, hasta
brindar ayuda técnica (por ejemplo, ayuda con la programación o problemas matemáticos).
Sin embargo, en el mercado de asistentes de IA generativos la competencia aumentó rápidamente. La
empresa Google desarrolló su propio modelo avanzado llamado Gemini, que pretende llevar su
asistente a un nuevo nivel. El Asistente de Google (que, como se mencionó, funciona desde 2016) fue
reconstruido desde cero con la tecnología Gemini durante 2023–2024 para poder responder de manera
más fluida y conversacional a consultas complejas. Google describe Gemini como un “nuevo tipo de
asistente personal de IA” con énfasis en la comunicación natural y un razonamiento lógico avanzado. En
otras palabras, la ambición es que el asistente de IA de próxima generación de Google no solo maneje
comandos de voz sencillos (“configura una alarma”), sino también tareas más complejas como planificar
todo un día, resolver problemas de varios pasos o colaborar creativamente con el usuario. Por
supuesto, tales objetivos conllevan también desafíos de rendimiento – el propio Google admite que
para algunas solicitudes Gemini necesita más tiempo que la generación anterior, aunque puede
responder a un espectro de preguntas mucho más amplio.


Otro nombre interesante es el asistente de IA DeepSeek (frecuentemente buscado como “deepseek ai
asistent”). Se trata de un actor relativamente nuevo que ganó popularidad por noticias de enero de 2025. Según expertos de la Universidad Estatal de Pensilvania, el asistente de IA DeepSeek es un
sistema similar a ChatGPT o Google Gemini, diseñado para un amplio espectro de tareas pero con una
especialización declarada en problemas lógicos formales y matemáticos. Esto es interesante porque el
razonamiento formal es precisamente una debilidad de muchos grandes modelos de lenguaje.
DeepSeek también llamó la atención al afirmar que logra un rendimiento competitivo con requisitos de
recursos computacionales mucho menores – supuestamente le bastan ~2.000 chips frente a los 16.000
que necesitan sus competidores, lo que lo hace diez veces más eficiente. Estas noticias incluso
sacudieron brevemente el mercado de valores de los fabricantes de chips, porque si se confirmaran,
significarían una IA más barata y accesible para las masas. Sin embargo, por ahora los expertos esperan
pruebas independientes para ver si DeepSeek realmente cumple con las altas expectativas en la
práctica. En cualquier caso, su llegada – junto con otras alternativas como Claude de Anthropic,
modelos de código abierto (LLaMA 2 de Meta, etc.) y IA especializadas (como AlphaCode de DeepMind
para programación) – indica que la era de los asistentes de IA avanzados está aquí y evoluciona
rápidamente.


Para los testers de software, los asistentes generativos suponen dos desafíos: deben aprender a
aprovecharlos en su beneficio y, al mismo tiempo, probar su confiabilidad. Por un lado, un tester puede
hacerle a ChatGPT una pregunta: «Genera casos de prueba para la función XY» y así obtener inspiración
o un diseño básico de pruebas. Por otro lado, si una empresa implementa en su producto un asistente
de IA (por ejemplo, incorpora un chatbot para clientes en su aplicación bancaria móvil), el tester debe
verificar que este asistente funcione correctamente, no comprometa la seguridad de los datos y cumpla
con las normas de comunicación de la empresa. Y esa no es una tarea fácil, ya que las respuestas de
una IA generativa no están programadas de forma fija, sino que son probabilísticas – pueden variar con
un pequeño cambio en la entrada. Volveremos sobre esto más adelante, en la discusión de los desafíos
de probar la IA.


Asistentes de IA como herramientas para desarrolladores y testers


Los asistentes de IA no solo son objeto de pruebas, sino que cada vez más se están convirtiendo en
herramientas en manos de testers y desarrolladores. En el ámbito del desarrollo de software, en los
últimos dos años brillaron los llamados asistentes de codificación con IA – asistentes para programación.
El ejemplo más conocido es GitHub Copilot, que a partir de un comentario o código incompleto sugiere
al desarrollador las siguientes líneas de programa. Copilot, que utiliza el modelo Codex de OpenAI,
debutó en 2021 y rápidamente ganó popularidad como “programador en pareja de IA” (AI pair
programmer). Es capaz de aumentar la productividad de los desarrolladores, ahorrarles la escritura de
código repetitivo (boilerplate) e incluso ayudar a generar pruebas unitarias. Estudios y blogs muestran
que Copilot puede ser útil al escribir casos de prueba, proponer escenarios extremos o agregar
rápidamente pruebas para código existente. Desde la perspectiva del tester, esto significa que el trabajo
rutinario – por ejemplo, crear el esqueleto básico de pruebas – se lo puede dejar al asistente de IA y uno
mismo enfocarse en la lógica de la prueba y el análisis de los resultados.


No solo GitHub Copilot, sino también otras herramientas están entrando en el ámbito de las pruebas.
Por ejemplo, la plataforma de pruebas PractiTest integró su propio asistente de IA llamado Smart Fox,
que ayuda a los creadores de pruebas a generar y mantener casos de prueba. Smart Fox puede, a partir
de la descripción de la funcionalidad, sugerir un caso de prueba y, lo que es interesante, utiliza
aprendizaje automático para evaluar la utilidad de cada prueba (el llamado Test Value Score). Eso
permite a los equipos priorizar los escenarios que cubren la mayor cantidad de riesgos. De manera
similar, la empresa LambdaTest lanzó el agente de IA KaneAI, denominado el primer asistente
generativo para pruebas end-to-end. KaneAI está construido sobre un LLM (Large Language Model) y
permite a los testers planificar y escribir pruebas en lenguaje natural – basta con describir qué se debe
probar, y la herramienta genera por sí sola los scripts de prueba. Es capaz de cubrir pruebas de UI y API,
aprender continuamente de iteraciones de pruebas y asistir en la depuración de errores. Si bien estas
funcionalidades suenan casi futuristas, ya están disponibles hoy en versiones iniciales.


Además de las herramientas comerciales, también existen proyectos de código abierto y asistentes
experimentales para testers. Por ejemplo, el complemento Continue para Visual Studio Code se
presenta como un asistente de IA que ayuda en la escritura de código y pruebas (similar a Copilot). En
los laboratorios de prueba de las empresas se están desarrollando chatbots internos que pueden
analizar logs de pruebas y alertar sobre anomalías, o que monitorean los resultados de la canalización
CI/CD y reportan en lenguaje natural qué falló. Imagine, por ejemplo, un bot de Slack al que le escribe:
«Por favor, averigua por qué fallaron las pruebas nocturnas» – y este recorre los logs y responde: «Falló
porque el servicio X devolvió un error 500, probablemente debido a un formato de datos incorrecto». Ya
están surgiendo prototipos así, y es de esperar que en un futuro cercano sean parte habitual del
conjunto de herramientas del equipo de QA.


Para los testers y desarrolladores, entonces, los asistentes de IA representan la oportunidad de
automatizar y acelerar algunas partes del trabajo. Por supuesto, todavía no se trata de un reemplazo
todopoderoso – las recomendaciones de la IA deben verificarse. Por ejemplo, el código generado por
Copilot puede contener errores o implementaciones no óptimas, por lo que una persona debe revisarlo
(el propio Copilot advierte que el código generado puede no estar libre de errores). Del mismo modo,
los escenarios de prueba propuestos por la IA pueden omitir algo importante. En el mejor de los casos,
sin embargo, la IA facilita las tareas aburridas y repetitivas – genera código base, sugiere casos límite,
procesa un gran conjunto de datos – y el ser humano aporta el pensamiento crítico y la creatividad.


Ventajas de los asistentes de IA en las pruebas de software


La incorporación de asistentes de IA en las pruebas aporta varias ventajas que aumentan tanto la
calidad como la velocidad de los procesos de QA:

  • Automatización de tareas rutinarias: Los asistentes de IA pueden asumir actividades
    repetitivas, como la generación de datos de prueba, el análisis básico de registros o la búsqueda
    de bugs conocidos en el rastreador. Con ello liberan a los testers para tareas más exigentes y
    reducen el riesgo de error humano en trabajos monótonos.
  • Retroalimentación más rápida: Gracias a la IA es posible obtener los resultados de ciertas
    pruebas casi en tiempo real. Por ejemplo, un asistente integrado en el IDE puede alertar
    continuamente sobre posibles errores durante el desarrollo (enfoque shift-left). Cuanto antes se
    detecta un error, más barato resulta solucionarlo.
  • Mayor cobertura de pruebas: La IA generativa puede proponer numerosas variantes de
    escenarios de prueba, incluidas aquellas en las que tal vez el equipo no habría pensado. Esto
    ayuda a aumentar la cobertura – se prueban diferentes entradas, casos límite o procedimientos
    no estándares. Muchas herramientas de prueba con IA (Smart Fox, KaneAI, etc.) afirman que
    pueden ampliar eficazmente el alcance de las pruebas sin un aumento drástico del esfuerzo del
    equipo.
  • Aprendizaje y adaptación personalizados: Algunos asistentes pueden aprender de los datos
    de la empresa o de las preferencias del equipo. Por ejemplo, si la IA ve que en un proyecto se
    repite con frecuencia cierto tipo de error, la próxima vez puede recomendar proactivamente a los
    testers una prueba centrada en ese aspecto. Tal adaptabilidad aumenta la eficiencia a largo
    plazo – las herramientas se acostumbran al proyecto en particular.
  • Disponibilidad ininterrumpida: Un asistente de IA no se cansa y está disponible 24/7. Puede
    monitorear sistemas de forma continua (por ejemplo, revisar los registros de producción en
    busca de anomalías) o responder preguntas de los testers incluso a medianoche. Esto
    contribuye a un desarrollo más ágil, especialmente en equipos que trabajan en diferentes zonas
    horarias

Desafíos y riesgos asociados con los asistentes de IA en QA

A pesar de sus indudables beneficios, no se pueden pasar por alto los desafíos y riesgos que los
asistentes de IA traen al ámbito de las pruebas (y del desarrollo en general)

  • Indeterminación y reproducibilidad: Las salidas de los modelos de inteligencia artificial no son
    deterministas. Esto significa que un mismo asistente de IA puede responder de manera
    ligeramente diferente a entradas muy similares. Para las pruebas tradicionales esto es un
    problema – ¿cómo probar una funcionalidad que no siempre da el mismo resultado? Las
    pruebas de sistemas de IA se enfrentan al hecho de que los resultados son más difíciles de
    predecir y reproducir. Los testers deben definir las métricas de éxito de otra forma
    (estadísticamente, por ejemplo “el 95 % de las respuestas deben ser correctas”) y dedicar mucho
    esfuerzo a crear un entorno de prueba estable para minimizar la influencia de desviaciones
    aleatorias.

  • “Alucinaciones” y respuestas incorrectas: Los modelos de IA generativa pueden afirmar algo
    con seguridad que en realidad es falso. En el contexto de un asistente de pruebas, esto puede
    significar que proponga una prueba errónea (por ejemplo, con un supuesto incorrecto) o evalúe
    mal un resultado. El tester entonces tiene que dedicar tiempo a verificar si la IA está equivocada.
    Por lo tanto, confianza versus control es un dilema clave: apoyarse en la IA, pero a la vez no
    “confiar ciegamente” en ella.

  • Complejidad de la depuración de sistemas de IA: Cuando un software tradicional falla, se
    puede averiguar la causa de manera bastante directa (un bug en el código, una condición mal
    implementada, etc.). Pero si un asistente de IA da una respuesta incorrecta, la causa puede
    residir profundamente en los millones de pesos de la red neuronal o en datos de entrenamiento
    inadecuados. Es el llamado problème de la boîte noire (black box). Para los testers es un desafío
    tanto detectar un error de la IA como reportarlo a los desarrolladores de forma comprensible.
    Por eso surgen nuevas disciplinas como la explicabilidad de la IA (AI explainability) y las pruebas
    de datos – puede que el tester no vea directamente el modelo, pero puede analizar los datos de
    entrenamiento en busca de sesgos, o probar la IA con multitud de entradas y evaluar
    estadísticamente las salidas.


  • Riesgos de seguridad y éticos: Si un asistente de IA genera código o trabaja con datos
    sensibles, existe el riesgo potencial de que cree inadvertidamente una vulnerabilidad (por
    ejemplo, que sugiera código sin la validación adecuada de entradas) o revele información
    confidencial (por ejemplo, que genere un texto que contenga datos internos extraídos de su
    conjunto de entrenamiento). Por ello hay que probar también lo que el asistente de IA sabe y
    dice. Es conocido el caso de un gran modelo de lenguaje del que se podían obtener, mediante
    prompts, informaciones sensibles que formaban parte de su conjunto de entrenamiento. Las
    empresas están implementando mecanismos como el red teaming – pruebas especiales en las
    que se intenta explotar o engañar deliberadamente a la IA para verificar sus mecanismos de
    defensa. Para QA esto significa incluir en el plan de pruebas casos poco convencionales: por
    ejemplo, tratar de inducir al asistente a violar las reglas (el llamado prompt de fuga, o jailbreak) y
    verificar que se resiste.
  • Requisitos de nuevas habilidades en el equipo: La introducción de herramientas de IA en las
    pruebas requiere que el tester aprenda a usar estas herramientas de manera efectiva. El
    concepto de prompting (formular entradas para la IA) es una habilidad nueva – un buen
    ingeniero de prompts sabe obtener mejores resultados de la IA. Así, el equipo de QA debe
    formarse continuamente, seguir las actualizaciones de los modelos de IA y ajustar
    hiperparámetros o configuraciones de los asistentes. A la vez, surge en el equipo la necesidad de
    colaborar con científicos de datos e ingenieros de ML, especialmente si la empresa desarrolla sus
    propios modelos de IA. La multidisciplinariedad será clave – un tester puramente “clickeador”
    quizás no baste en el futuro, tendrá que entender también los fundamentos del aprendizaje
    automático y la estadística para poder probar la IA a fondo.
  • Cambios organizativos y de proceso: Por último, la implementación de la IA puede cambiar los
    flujos de trabajo. Un asistente puede, por ejemplo, generar informes de prueba por sí mismo,
    cambiando así el rol del tester en la elaboración de informes – pasará a ser más un validador de
    la corrección del informe de la IA. O la IA puede ejecutar autónomamente ciertas pruebas en
    producción, incidiendo en los procesos de despliegue (DevOps). Las empresas deben entonces
    adaptar sus procesos, definir responsabilidades (quién “entrena” y mantiene al asistente de IA) y
    también abordar cuestiones legales (por ejemplo, los derechos de autor del código generado
    por IA, la responsabilidad por un error que la IA pase por alto, etc.).

Conclusión


Los asistentes de IA han pasado de ser una idea de ciencia ficción a convertirse en una herramienta
común y útil tanto en la vida cotidiana como en el ámbito profesional. Para la comunidad de pruebas de
software representan una doble oportunidad: por un lado, pueden hacer más eficientes las propias
pruebas (acelerar la preparación de pruebas, automatizar el análisis, ampliar la cobertura) y, por otro
lado, abren un nuevo campo de actuación para los ingenieros de QA – probar sistemas de inteligencia
artificial requiere creatividad, minuciosidad y aprendizaje continuo.


Los asistentes de IA actuales (ya sea el asistente virtual del móvil, un asistente de IA en checo en un
traductor, o un personal AI assistant especializado que ayuda a un equipo de desarrolladores) son solo el
comienzo. Cabe esperar que sus capacidades crezcan y estén cada vez más integrados en las
herramientas que usamos. Para los testers esto significa que el cambio es constante – así como en su
momento el paso de las pruebas manuales a las automatizadas requirió adaptación, ahora debemos
incorporar la IA a nuestro conjunto de habilidades.


En conclusión, la clave para convivir con éxito con los asistentes de IA es el equilibrio: aprovechar sus
beneficios, pero mantenerse alerta ante sus imperfecciones. La IA debería ser nuestro “colega” que
realiza parte del trabajo, pero la responsabilidad por la calidad sigue recayendo en nosotros. En la
comunidad profesional de pruebas ya se está formando el consenso de que la combinación del
pensamiento crítico humano y la velocidad de las herramientas de IA producirá los mejores resultados.
Los asistentes de IA son, entonces, una incorporación bienvenida a la familia de herramientas de
prueba – si los domamos e incorporamos correctamente, pueden contribuir significativamente a una
mayor calidad del software que entregamos.


Fuentes:

  1. AI Agents vs. AI Assistants | IBM – https://www.ibm.com/think/topics/ai-agents-vs-ai-assistants
  2. Voice Search Statistics 2025 (Usage Data & Trends) – https://www.demandsage.com/voice-search
    statistics/
  3. 70+ Voice Search Statistics You Need To Know In 2024 – https://learn.g2.com/voice-search-statistics
  4. Introducing Gemini, your new personal AI assistant – https://gemini.google/assistant/?hl=en
  5. Q&A: DeepSeek AI assistant and the future of AI | Penn State University – https://www.psu.edu/news/
    research/story/qa-deepseek-ai-assistant-and-future-ai
  6. Writing Better Tests with AI and GitHub Copilot – Codecov – https://about.codecov.io/blog/writing
    better-tests-with-ai-and-github-copilot/
  7. Kane AI – World’s First GenAI-Native Test Agent – https://www.lambdatest.com/kane-ai
  8. The Challenges of Testing Artificial Intelligence (AI) | Digital Transformation | Digital Assurance
    https://www.cigniti.com/blog/testing-artificial-intelligence-ai/