La división de computación en la nube de Amazon enfrentó al menos dos interrupciones de servicio vinculadas al uso de sus propias herramientas de inteligencia artificial, según reveló el Financial Times. Los episodios reavivaron el debate interno sobre el alcance y los riesgos de los asistentes de codificación autónomos.
El incidente más relevante ocurrió a mediados de diciembre, cuando el sistema que permite a clientes de AWS analizar costos de servicios sufrió una interrupción de 13 horas. De acuerdo con fuentes citadas por el diario británico, ingenieros permitieron que la herramienta de codificación Kiro AI ejecutara cambios de manera autónoma.
El sistema —de tipo “agentic”, capaz de actuar en nombre del usuario— habría determinado que la mejor solución era “eliminar y recrear el entorno”, lo que derivó en la caída del servicio.
La posición de Amazon: “error del usuario”
Amazon sostuvo que se trató de un “error del usuario, no de la IA”. Según la compañía, el ingeniero involucrado contaba con permisos más amplios de lo habitual, lo que constituyó un problema de control de acceso y no de autonomía del sistema.
La empresa afirmó que el evento fue “extremadamente limitado” y afectó únicamente a un servicio en determinadas zonas de China continental. También señaló que otro incidente reciente no impactó en servicios de atención al cliente.
AWS representa cerca del 60 % de las ganancias operativas de Amazon, lo que magnifica cualquier interrupción, incluso si es localizada.
El trasfondo: IA autónoma en producción
La herramienta Kiro, lanzada en julio, fue diseñada para ir más allá de los asistentes tradicionales y ejecutar acciones técnicas complejas a partir de especificaciones humanas. Previamente, Amazon había desplegado Amazon Q Developer, otro chatbot orientado a programación, también vinculado —según empleados— a uno de los incidentes recientes.
El debate interno no es menor. Algunas fuentes señalaron que la compañía impulsa metas ambiciosas de adopción: busca que el 80 % de sus desarrolladores utilicen herramientas de IA al menos una vez por semana.
Los críticos dentro de la firma advierten que, si bien estas herramientas prometen eficiencia, los riesgos operativos en entornos productivos pueden resultar previsibles cuando no existen instancias robustas de supervisión humana.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]