La faz oscura de la inteligencia artificial

Con el desarrollo y la popularización de la Inteligencia Artificial (IA), empezó también un proceso de concienciación direccionado a la población en general, y a sus usuarios en particular, sobre los riesgos asociados. Hoy podemos encontrar en la web múltiples artículos así como estudios sobre el tema, que han servido para hacer llegar a las personas, informaciones importantes sobre el nuevo mundo y dinámicas creadas por esta herramienta. 

Según un artículo de la revista Forbes España, uno de los quince mayores riesgos de la inteligencia artificial es la dependencia que puede nacer con el uso. Aunque se pueda pensar que los sujetos de esta dependencia son los más jóvenes, como consecuencia de su inmadurez, y sin embargo sea un hecho de que es más probable, la verdad es que también académicos e investigadores parecen ser sujetos de esta dinámica, como nos hace pensar las conclusiones de un análisis llevado a cabo por un bibliotecario en Londres, publicada por El País. 

Andrew Gray realizó un análisis detallado de millones de artículos científicos en busca de padrones en el uso de términos poco comunes, muy utilizados por programas de Inteligencia Artificial. El bibliotecario del University College de Londres descubrió un aumento significativo en el uso de palabras como “intrincado”, “encomiable” y “meticuloso” en estudios científicos recientes, atribuido al uso creciente de herramientas como el Chat GPT para escribir o mejorar textos académicos.

También fueron detectados casos flagrantes de plagio, como de investigadores que utilizaron introducciones generadas por el Chat GPT en sus artículos, sin citar la fuente. De hecho, se estima que más de 60,000 estudios (más del 1% de los analizados en 2023) fueron escritos con la ayuda del Chat GPT o herramientas similares, lo que plantea preocupaciones sobre la transparencia y calidad de la investigación académica. Además de las preocupaciones asociadas a la ética y calidad, todo esto genera un debate sobre el riesgo de dependencia mencionado por nosotros anteriormente. 

Tener herramientas como el Chat GTP a nuestra disposición puede resultar tentador, ya que “alguien” puede escribirnos en segundos cosas que tardaríamos minutos o horas a escribir. Sin embargo, hay que controlar la cuestión no sólo en nombre de la integridad de la escritura académica y científica, sino también por la preservación de nuestra propia capacidad cognitiva. Como presenta Bernard Marr en el artículo de Forbes España, “la dependencia excesiva de los sistemas de IA puede conducir a una pérdida de creatividad, capacidad de pensamiento crítico e intuición humana”. 

estos-son-los-15-mayores-riesgos-de-la-ia 

el-exceso-de-palabras-como-encomiable-y-meticuloso-sugiere-el-uso-de-chatgpt-en-miles-de-estudios-cientificos.html

Scroll al inicio