Inteligencia artificial
Inteligencia artificial para hacer trabajos escolares, ¿el truco definitivo de los alumnos tramposos?
El debut del sistema de inteligencia artificial llamado ChatGPT, y en especial el de su última versión, no ha dejado de asombrar al mundo por su notable habilidad para elaborar textos coherentes e informativos sobre los temas que se le piden. La habilidad de esta inteligencia artificial para generar textos sobre cualquier tema del que haya información en internet puede servir como atajo para obtener resúmenes sobre cuestiones que no tienen un vocablo concreto en una enciclopedia. Pero ¿y si un alumno, en vez de escribir la redacción, trabajo o tesis que le ha encargado su profesor, le pide a la inteligencia artificial que le escriba un texto del tema y extensión requeridos y luego lo presenta como propio al profesor? Esto es mucho más sofisticado que el truco de copiar contenidos de internet y firmarlos como propios.
Una investigación reciente ha explorado esta cuestión.
El equipo de Heather Desaire, de la Universidad de Kansas en Estados Unidos, pidió a ChatGPT que redactase 128 artículos sobre otros tantos temas. En cada artículo, debía exponerse lo más importante del tema tratado, a modo de visión general del mismo.
Comparando esos 128 textos con otros de los mismos temas y enfoque pero escritos por humanos, Desaire y sus colegas detectaron rasgos reveladores de la autoría no humana de los textos. Aunque recurrieron a otra inteligencia artificial para que les ayudase con los rasgos muy sutiles, muchos otros rasgos resultan evidentes para la mente humana con una simple lectura.
Al contrario de lo que sucede con la inteligencia artificial, los humanos tenemos estructuras de párrafos más complejas, con variaciones grandes en la cantidad de frases y en el total de palabras por párrafo, así como fluctuaciones también notables en la longitud de las frases. Un texto redactado por una inteligencia artificial suele ser bastante esquemático y ordenado, y acostumbra tener frases más bien cortas y con una arquitectura relativamente simple y predecible. Las preferencias en cuanto a signos de puntuación y vocabulario también delatan si el texto lo ha escrito una persona o una inteligencia artificial.
El equipo identificó en total una veintena de rasgos delatadores de esa autoría no humana. Suministrando esta información a otra inteligencia artificial, Desaire y sus colegas probaron a esta en su capacidad de discernir cuándo un texto había sido escrito por un humano y cuándo por ChatGPT.
En los casos en los que se permitía al sistema de inspección leer el documento entero, la tasa de aciertos en detectar que la autoría no era humana fue del cien por cien. Cuando solo se le permitía leer un párrafo de cada documento, su tasa de aciertos bajaba al 92 por ciento.
![[Img #68670]](https://noticiasdelaciencia.com/upload/images/06_2023/7221_inteligencia-artificial-para-hacer-trabajos-escolares.jpg)
Colar como propio un texto que en realidad ha sido escrito por una inteligencia artificial no es tan fácil como pueda parecer. Hay maneras de detectar si lo ha escrito un humano o si, por el contrario, lo ha hecho una inteligencia artificial como ChatGPT. (Imagen: Heather Desaire / Romana Jarosova / University of Kansas. CC BY-SA)
El sistema de inspección preparado por el equipo de investigación supero ampliamente en eficiencia a un sistema disponible comercialmente que hace el mismo tipo de trabajo.
El estudio se titula “Distinguishing academic science writing from humans or ChatGPT with over 99% accuracy using off-the-shelf machine learning tools“. Y se ha publicado en la revista académica Cell Reports Physical Science. (Fuente: NCYT de Amazings)



