Viernes, 03 de Abril de 2026

Actualizada Viernes, 03 de Abril de 2026 a las 14:33:06 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Redacción
Viernes, 03 de Abril de 2026
Tecnología

¿Puede una máquina detectar a otra máquina? La ciencia detrás de los detectores de IA

Los modelos de lenguaje aprendieron a escribir como humanos. Ahora otros modelos intentan descubrir cuándo lo están haciendo. Esto es lo que ocurre exactamente.

La mayor parte del texto que circula en internet ha sido tocado por algún modelo de lenguaje: redactado, resumido, corregido o expandido con IA. Y en respuesta a eso, ha surgido toda una rama de la lingüística computacional dedicada a detectar exactamente eso. El resultado es una especie de carrera de armamentos lingüística, donde las mismas técnicas que hacen que un texto suene humano son las que los detectores buscan para desenmascararlos.

 

La pregunta tiene algo de paradoja: ¿cómo puede una IA reconocer a otra IA, si ambas trabajan con las mismas estructuras del lenguaje? La respuesta está en que los modelos generativos no escriben como los humanos, aunque lo parezcan a primera vista. Escriben de una manera estadísticamente óptima, y esa optimización deja huellas.

 

El problema de la escritura demasiado perfecta

 

Cuando una persona escribe, comete pequeñas irregularidades: varía el largo de las oraciones sin pensarlo, usa palabras que no son exactamente las más precisas pero sí las más naturales en ese momento, cambia de ritmo, introduce digresiones, se repite sin darse cuenta, y a veces usa una metáfora que solo tiene sentido en ese contexto específico. Todo eso es impredecible porque refleja el estado mental de una persona real.

 

Los modelos de lenguaje, en cambio, generan el texto siguiente que es estadísticamente más probable dado el contexto. Eso produce textos fluidos, bien estructurados y gramaticalmente correctos. Pero también produce textos con una regularidad que ningún humano mantiene de manera natural durante más de dos párrafos.

 

Los detectores de IA explotan precisamente esa regularidad. No buscan errores, porque los textos de IA no los tienen. Buscan la ausencia de irregularidades.

 

Perplexity y burstiness: las dos métricas que lo explican todo

 

La mayoría de los detectores de texto generado por IA trabajan con dos conceptos centrales de la lingüística computacional. Entenderlos no requiere saber programar, pero sí ayuda a comprender por qué estos sistemas funcionan.

 

Perplexity: la sorpresa del modelo

 

La perplejidad (perplexity en inglés) mide qué tan predecible es un texto para un modelo de lenguaje. Si el modelo puede anticipar con alta probabilidad cuál será la siguiente palabra, frase o transición, la perplejidad es baja. Si el texto lo "sorprende" con frecuencia, la perplejidad es alta.

 

Los textos generados por IA tienden a tener perplejidad baja: son predecibles porque fueron construidos exactamente con esa lógica, eligiendo siempre las opciones más probables. Los textos humanos tienen perplejidad más alta porque las personas toman decisiones que no siguen siempre la ruta más probable.

 

Un detector de IA no pregunta "¿está bien escrito este texto?" sino "¿qué tan sorprendente es este texto para otro modelo de lenguaje?"

 

Burstiness: la variación del ritmo

 

La burstiness mide la variación en la longitud y complejidad de las oraciones a lo largo de un texto. Los humanos escriben con mucha variación: una oración corta. Luego un párrafo más largo donde desarrollan la idea, introducen matices, hacen referencia a algo anterior. Otra frase breve para rematar. Los modelos de IA tienden a producir oraciones de longitud más uniforme, con transiciones regulares entre párrafos.

 

Esto es visible cuando lees un texto generado con IA en voz alta: hay un ritmo casi metronómico que resulta difícil de mantener de manera espontánea si eres humano, pero que los modelos reproducen de forma natural porque así optimizan la coherencia del output.

 

Señales que analizan los detectores modernos:

 

Perplejidad del vocabulario · Variación en longitud de oraciones (burstiness) · Uniformidad de transiciones entre párrafos · Predictibilidad de la secuencia de ideas · Frecuencia de construcciones simétricas · Uso de conectores en posición inicial · Ausencia de marcadores de oralidad o subjetividad · Densidad léxica por segmento · Patrones de puntación repetitivos · Distribución de tiempo verbal · Coherencia temática excesiva

 

Cómo funciona un detector en la práctica

 

Un detector de IA moderno no lee el texto como lo haría un editor humano. Lo procesa en capas. Primero segmenta el texto en unidades (oraciones, párrafos). Luego calcula las métricas anteriores para cada segmento. Después compara esos valores con los patrones estadísticos aprendidos de millones de textos: algunos producidos por humanos, otros generados por modelos como GPT-4, Claude o Gemini.

 

El resultado no es un veredicto binario —"humano" o "máquina"— sino una estimación probabilística con resolución a nivel de oración. Algunos sistemas, como el detector de IA, muestran exactamente qué fragmentos activaron más señales, con algo parecido a un mapa de calor sobre el texto. Eso permite entender por qué una sección fue marcada, no solo saber que lo fue. 

 

[Img #78397]

 

El sistema de JustDone, según su equipo de desarrollo, utiliza más de 11 señales lingüísticas distintas y está entrenado sobre más de un millón de muestras de texto humano y generado por IA. Su tasa de falsos positivos —es decir, textos humanos clasificados erróneamente como IA— está por debajo del 1%, lo que es relevante en contextos donde una clasificación incorrecta puede tener consecuencias reales.

 

El problema de los falsos positivos

 

Este es el punto más delicado de la detección de IA, y también el que más debate genera entre investigadores. Un falso positivo ocurre cuando un texto escrito por un humano es clasificado como generado por IA. Puede pasarle a cualquier persona que escriba de manera muy estructurada, use vocabulario técnico consistente, o simplemente sea muy precisa en su redacción.

 

Los estudiantes universitarios que estudian ingeniería, derecho o medicina, por ejemplo, aprenden a escribir de formas que comparten muchas características con los textos de IA: estructura lógica clara, transiciones explícitas, vocabulario controlado. Eso hace que algunos detectores los marquen incorrectamente.

 

Es por eso que los detectores más avanzados no trabajan solo con perplejidad y burstiness, sino que incorporan análisis semántico más profundo: buscan si hay razonamiento que va más allá de la superficie, si existen referencias a experiencias que un modelo no podría inventar, o si el tono varía de maneras que reflejan una perspectiva personal genuina.

 

La escritura híbrida: el caso más difícil

 

En 2026, la situación más común no es "texto completamente humano" versus "texto completamente de IA". Es texto mixto: un humano escribe la estructura y las ideas principales, la IA rellena párrafos, un editor humano revisa el conjunto, y quizás la IA vuelve a pulir el tono al final.

 

Para los detectores, este es el escenario más difícil. Un detector que solo analiza el texto completo tenderá a promediar las señales y puede perder la heterogeneidad interna. Los sistemas más modernos abordan esto con análisis a nivel de segmento: en lugar de dar una puntuación global, evalúan cada párrafo de forma semi-independiente y buscan variaciones internas que delaten la mezcla de autores.

 

¿Y si el texto de IA es "humanizado"?

 

Existe toda una categoría de herramientas diseñadas para hacer lo contrario: tomar texto generado por IA y reescribirlo para que los detectores no lo reconozcan. Esto introduce otro nivel de complejidad al problema.

 

Los humanizadores modernos no funcionan simplemente sustituyendo palabras por sinónimos. Eso era lo que hacían las primeras versiones de estas herramientas, y los detectores aprendieron rápidamente a reconocer ese patrón. Los sistemas actuales intentan reconstruir el ritmo del texto, diversificar la longitud de las oraciones y modificar las transiciones para que el conjunto tenga más variabilidad real.

 

[Img #78396]

 

El resultado es que los detectores y los humanizadores evolucionan en paralelo, cada uno entrenándose sobre los outputs del otro. Desde un punto de vista técnico, es un ejemplo interesante de aprendizaje adversarial: dos sistemas que se entrenan mutuamente por competición.

 

¿Qué preserva un buen humanizador?

 

La información y el argumento central del texto · La terminología específica del dominio · Las referencias y citas · La estructura de párrafos · Lo que cambia: el ritmo, las transiciones, la longitud variable de oraciones, los conectores, el registro tonal.

 

Los límites reales de la detección

 

Los detectores actuales son buenas herramientas estadísticas, pero no son infalibles ni pueden serlo. El lenguaje humano y el lenguaje de IA están cada vez más entrelazados. Un modelo entrenado con texto humano aprende a escribir como humano. Un humano que usa IA con frecuencia puede empezar a escribir con patrones que se asemejan a los de un modelo.

 

Lo que los detectores pueden hacer bien es identificar señales de riesgo, especialmente en textos donde la generación automática no fue revisada ni editada. Lo que no pueden hacer es reemplazar el criterio editorial o la conversación directa sobre cómo se produjo un texto.

 

Si quieres experimentar directamente con los mecanismos que hemos descrito —perplejidad, detección por segmentos, análisis de ritmo— puedes probar el detector de JustDone con cualquier texto tuyo o de otro origen. El resultado muestra no solo el porcentaje global, sino qué fragmentos específicos activaron más señales y por qué tipo de patrón. Es la manera más directa de ver esta ciencia en funcionamiento.

 

Una carrera que no tiene línea de llegada

 

Los detectores de IA no resolverán de forma definitiva la pregunta de qué es texto humano y qué no lo es. Esa pregunta se vuelve más filosófica a medida que los modelos mejoran. Lo que sí hacen es ofrecer una herramienta de análisis lingüístico cada vez más sofisticada, útil para editores, investigadores, instituciones educativas y cualquiera que necesite entender la procedencia y el carácter de un texto.

 

La ciencia que hay detrás no es nueva: perplexity y burstiness son conceptos de la lingüística computacional de hace décadas. Lo que es nuevo es la escala a la que se aplican y la precisión que se puede alcanzar con modelos entrenados sobre grandes volúmenes de datos. El detector no sabe si alguien usó IA. Sabe si el texto se comporta estadísticamente como si lo hubiera hecho. Y en muchos casos, eso es suficiente para orientar una decisión.

 

Si quieres comprobar cómo funciona la detección en la práctica, el detector de IA de JustDone está disponible en español y analiza texto a nivel de oración, mostrando exactamente qué fragmentos activaron más señales y con qué probabilidad.

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.