InicioTecnologíaGoogle revela que el 75% de su nuevo código es generado por...

Google revela que el 75% de su nuevo código es generado por IA y reabre el debate sobre el futuro del desarrollo de software

Sundar Pichai, CEO de Google, confirmó que tres de cada cuatro líneas de código nuevo de la compañía son generadas por inteligencia artificial. Sin embargo, el dato incluye matices: los ingenieros revisan y aprueban cada línea antes de su implementación.

Google genera el 75% de su nuevo código con inteligencia artificial. El dato fue revelado por Sundar Pichai, CEO de la compañía, durante la presentación de sus últimos resultados trimestrales. La cifra impactó en Silicon Valley: tres de cada cuatro líneas de código nuevo que escribe el gigante tecnológico tienen origen en máquinas, no en humanos.

Sin embargo, la realidad es más matizada de lo que parece. Ese 75% no significa que la IA escriba código de forma autónoma: los ingenieros revisan, modifican y aprueban todo antes de que entre en producción. Pichai fue claro al respecto: la IA propone, pero los humanos deciden qué código finalmente se integra. El proceso sigue bajo control de desarrolladores de carne y hueso.

Aun así, la cifra reabrió un debate que viene desde hace años: ¿se puede confiar en el código que genera una máquina? La inteligencia artificial no es infalible. Los modelos de lenguaje cometen errores, “alucinan” datos y generan código que puede tener fallos graves. Las alucinaciones son uno de los riesgos más conocidos: la IA inventa funciones que no existen, mezcla sintaxis de diferentes lenguajes o sugiere bibliotecas obsoletas.

También hay problemas de seguridad. El código generado puede incluir vulnerabilidades que pasan desapercibidas en una primera revisión. Un ejemplo concreto lo vivió un desarrollador llamado Goobix: su aplicación de juego empezó a fallar después de que la IA sugiriera un cambio. El error estuvo escondido durante semanas hasta que un usuario reportó el problema, y cuando revisaron el código descubrieron que la IA había introducido una lógica defectuosa.

Casos como ese no son aislados. Muchos desarrolladores reportan que las herramientas de IA generan código que compila, pero que tiene bugs sutiles o mal rendimiento. La comunidad de desarrolladores está dividida: algunos ven la IA como un aliado que acelera el trabajo repetitivo, mientras que otros la consideran un atajo peligroso que genera deuda técnica.

Stack Overflow, una de las plataformas más grandes de programadores, prohibió el contenido generado por IA hace un par de años. La razón fue clara: había demasiadas respuestas incorrectas que confundían a los usuarios. La decisión generó polémica: muchos argumentaron que la IA podía ser útil si se usaba con criterio, pero la plataforma mantuvo su postura: el código generado por máquinas necesita validación humana exhaustiva.

En Google, esa validación existe. Pichai insistió en que cada línea de código que propone la IA pasa por revisión de ingenieros. El porcentaje del 25% de código producido por IA que mencionó incluye solo lo que finalmente se aprueba. Pero la pregunta persiste: ¿qué tan rigurosa es esa revisión cuando el volumen de código generado es tan alto?

El dato de Google hay que leerlo con contexto. Que el 75% del código nuevo tenga origen en IA no significa que Google dependa ciegamente de las máquinas: significa que los ingenieros usan IA como herramienta de productividad, pero el control final sigue siendo humano. La diferencia entre “generado” y “producido” es clave. Google reporta que el 25% de su código es producido por IA, lo que implica que un tercio de lo que la IA genera termina siendo descartado o reescrito.

Esa tasa de rechazo muestra que la IA aún no es perfecta. Los desarrolladores detectan errores, mejoran el código sugerido y muchas veces reescriben secciones completas. Sin embargo, la tendencia es clara: cada vez más compañías incorporan IA en sus flujos de desarrollo. Google no es la única. Microsoft, Meta y Amazon también usan modelos de lenguaje para acelerar la producción de software.

El principal riesgo es la falsa sensación de seguridad. Un desarrollador que confía demasiado en la IA puede pasar por alto errores sutiles que luego explotan en producción. Las vulnerabilidades de seguridad son especialmente preocupantes: la IA puede sugerir código que parece funcionar pero que abre puertas a ataques. También está el problema de la deuda técnica: el código generado por IA tiende a ser funcional pero no siempre óptimo, y con el tiempo puede acumular problemas de mantenimiento.

Google confía en que sus procesos de revisión mitigan estos riesgos. Pero la escala del 75% plantea dudas: ¿es posible revisar con rigor millones de líneas de código generado por máquinas? La respuesta probablemente esté en el equilibrio: la IA puede ser una herramienta poderosa si se usa con criterio, supervisión constante y procesos de validación robustos. Sin eso, el riesgo de errores masivos crece exponencialmente.

Más noticias
Noticias Relacionadas