La versión en inglés de Wikipedia decidió restringir el uso de inteligencia artificial generativa para la redacción y edición de sus artículos, en una medida que refleja la creciente preocupación por la fiabilidad de los contenidos en la era de los modelos de lenguaje.
La plataforma considera que herramientas basadas en IA, como ChatGPT, Gemini, Claude o DeepSeek, pueden vulnerar sus políticas editoriales al introducir información no verificada o alterar el sentido original de los textos.
Qué está prohibido y qué se permite
La nueva directriz establece que:
Prohibido:
Usar IA para redactar artículos completos
Editar contenidos existentes con generación automática
Introducir información no respaldada por fuentes
Permitido (con condiciones):
Corrección de errores básicos (gramática, estilo)
Traducción de artículos entre idiomas
En ambos casos, Wikipedia exige una supervisión humana completa para evitar que la IA modifique el significado del contenido.
El problema de fondo: precisión y verificabilidad
Wikipedia se basa en principios clave como:
Neutralidad Verificabilidad Uso de fuentes confiables
Según la plataforma, los modelos de lenguaje tienden a:
“Alucinar” información Reformular contenidos sin respaldo documental Introducir errores sutiles difíciles de detectar
Esto representa un riesgo directo para la credibilidad del proyecto.
Con información de Europa Press
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]