En el mundo de la inteligencia artificial, que cada día nos sorprende con algo nuevo, ha surgido una competencia particular. En un carril tenemos al detector de IA, un campeón entrenado para humanizar textos automatizados.
En el otro, los textos ya humanizados con IA en los que se ha borrado todo indicio de escritura generativa.
Entre ambos surgido una relación tensa que tiene a todos en vilo. Es el enfrentamiento entre dos tecnologías luchando por evolucionar y dominar el futuro.
Por eso muchos se preguntan, ¿quién ganará? ¿Cuál de los dos definirá la escritura, la autoría y la autenticidad?
Si quieres saber en qué deriva esta competencia silenciosa, sigue leyendo a continuación.
¿Cuál es el objetivo de los detectores de IA?
Los detectores de IA se encargan de ejecutar un análisis en un texto, en búsqueda de todo indicio de que pudiese haber sido escrito por una IA.
Para eso, identifican patrones característicos de la escritura generativa. En base a esto, determinan un porcentaje probable y proponen formas de reformular el uso del contenido creado por la IA.
Examinan los niveles de previsibilidad del escrito, su tendencia a la uniformidad, la presencia de un vocabulario genérico, y las señales de ritmo constante o un orden excesivo en la sintaxis.
Hay que señalar que determinan niveles y probabilidades estadísticas. No pueden indicar intenciones, o si es de autoría original.
¿Cómo y por qué surgen los textos humanizados con IA?
Las IA humanizadoras de contenido escrito nacieron de la necesidad de reelaborar la redacción de los modelos generativos, para que se asemeje a la escritura humana auténtica.
Detrás de semejante tarea, está la necesidad de mejorar la experiencia de la lectura y la de disminuir la monotonía que transmite el contenido que generan la IA.
Parecería que la intención es ocultar el uso de los modelos de lenguaje generativo. Pero, es todo lo contrario. Lo que se quiere hacer es adaptar lo que esta produce al modo humano, para que sea más agradable al público.
¿Qué armas esgrimen las IA humanizadoras al enfrentar a los detectores de IA?
El punto de partida de las IA humanizadoras son los mismos rastros que analizan los detectores de IA. A partir de esto se encargan de los siguiente:
- Incrementan las variantes lingüísticas, alternando las longitudes de las oraciones, irregularizando el ritmo y combinando estructuras simples y elaboradas.
- Disminuyen los patrones reiterativos, eliminando conectores predecibles, reelaborando frases modelo y controlando la redundancia de conceptos.
- Incorporan rasgos subjetivos, agregando matices emocionales, opiniones implícitas y estableciendo un tono menos neutro.
- Recrean una imperfección controlada, reduciendo su fluidez, adicionando transiciones naturales y haciendo uso de un lenguaje de formalidad menor, si el tipo de texto la amerita.
Estas modificaciones reducen la posibilidad de que los detectores de IA indiquen una alta probabilidad de que el escrito sea resultado de la inteligencia artificial.
La respuesta de los detectores de IA a las IA humanizadoras
En contrapartida los modelos analíticos de los detectores de IA evolucionan y aprenden a divisar los indicativos de humanización de los textos.
Para esto se entrenan con textos de mayor variedad, aprenden sobre patrones de escritura más complejos y menos evidentes, comparan métricas diversas en forma simultánea y analizan la coherencia semántica a largo plazo.
No obstante, en la medida en que las IA humanizadoras evolucionen, será más difícil determinar un límite definido.
Sobre todo, si tenemos en cuenta que los detectores pueden equivocarse. No pueden asegurar en un sentido estricto si es un escrito resultado de un modelo generativo.
El problema de los falsos positivos y negativos
Así es, a pesar de lo avanzado que sean estos sistemas, no son infalibles. Pueden señalar erradamente positivos y negativos.
¿Cómo puede ser posible? Veamos a continuación
La primera, el falso positivo, es la posibilidad de que indique que un texto proviene de una IA, cuando en realidad lo redactó un ser humano. Esto puede suceder si el texto es extremadamente formal, si posee una estructura muy uniforme y si contiene un lenguaje demasiado académico.
La segunda, el falso negativo, sucede cuando un texto automatizado es clasificado como humano. Esto podría ser resultado de un escrito humanizado, que presenta una alta variabilidad y que contiene huellas subjetivas.
Entonces, sería cuestión de reflexionar hasta qué punto se debe asignar decisiones relevantes a un detector automático.
¿Quién está ganando la competencia?
Todo parece indicar que en la medida de que las IA sigan aprendiendo y, en definitiva, evolucionando, ya no habrá un enfrentamiento entre estos sistemas.
Los mismos modelos generadores podrían terminar aprendiendo a redactar de forma humana, sin necesidad de que sus producciones textuales sean reformuladas.
Hasta que esto suceda, no hay que perder de vista lo que realmente pueden hacer. Porque los detectores pueden dar pautas o alertas, no emiten ninguna certeza.
La humanización se lleva a cabo para hacer que una lectura sea más agradable, pero no puede determinar una autoría real.
Y a pesar de las ventajas que ofrecen las IA, siempre hay que regirse por el criterio humano. Ese mismo que las inteligencias artificiales, a pesar de sus virtudes, aún no han logrado siquiera imitar.



