Aunque los beneficios de la inteligencia artificial continúan siendo un tema central en sus discusiones, la eliminación de ciertas restricciones plantea interrogantes sobre el papel de la compañía
En un reciente giro en su enfoque hacia la inteligencia artificial (IA), la gigante tecnológica estadounidense Google ha decidido revisar sus principios éticos y eliminar una de las cláusulas más controvertidas: la que impedía utilizar esta tecnología para la creación de armas o herramientas de vigilancia.
Esta decisión marca un cambio importante en la política de la compañía, que refleja su creciente involucramiento en los debates globales sobre el desarrollo de la IA. La actualización de las directrices fue explicada por Kent Walker, presidente de asuntos globales y director legal de Google, quien afirmó que algunas de las restricciones del primer conjunto de principios no se alineaban con las discusiones más complejas que ahora la compañía está liderando.
«Nuestra prioridad en todo esto es que los beneficios de la IA superen con creces los posibles riesgos», expresó Walker, quien agregó que, en muchos casos, la empresa se ve cada vez más involucrada en conversaciones clave sobre tecnología y su impacto en el mundo.
Esta revisión de las políticas de la corporación está en línea con el creciente rol de Google en temas sensibles, como la ciberseguridad y la biotecnología. Según Walker, se les pide más a menudo que participen en debates sobre áreas en las que la empresa tiene experiencia, lo que implica que su implicación podría ser crucial para la sociedad. «Es positivo para el mundo que Google desempeñe un papel en estos debates», dijo, subrayando su especialización en varios sectores. La eliminación de la cláusula que prohibía el uso de la IA para fines bélicos o de control social ha generado preocupación entre algunos expertos.


