La versión en inglés de Wikipedia decidió restringir el uso de inteligencia artificial generativa para la redacción y edición de sus artículos, en una medida que refleja la creciente preocupación por la fiabilidad de los contenidos en la era de los modelos de lenguaje.
La plataforma considera que herramientas basadas en IA, como ChatGPT, Gemini, Claude o DeepSeek, pueden vulnerar sus políticas editoriales al introducir información no verificada o alterar el sentido original de los textos.
Qué está prohibido y qué se permite
La nueva directriz establece que:
Prohibido:
Usar IA para redactar artículos completos
Editar contenidos existentes con generación automática
Introducir información no respaldada por fuentes
Permitido (con condiciones):
Corrección de errores básicos (gramática, estilo)
Traducción de artículos entre idiomas
En ambos casos, Wikipedia exige una supervisión humana completa para evitar que la IA modifique el significado del contenido.
El problema de fondo: precisión y verificabilidad
Wikipedia se basa en principios clave como:
Neutralidad Verificabilidad Uso de fuentes confiables
Según la plataforma, los modelos de lenguaje tienden a:
“Alucinar” información Reformular contenidos sin respaldo documental Introducir errores sutiles difíciles de detectar
Esto representa un riesgo directo para la credibilidad del proyecto.
Con información de Europa Press