Google no desarrollará tecnología para armas
Afp | 07 junio 2018
El presidente (CEO) de Google, Sundar Pichai,dijo los programas de
inteligencia artificial serán diseñados para aplicaciones que sean socialmente
benéficas. Foto Afp
|
San Francisco. Google anunció este jueves
que no desarrollará inteligencia artificial para armas o para "causar o
facilitar directamente lesiones a personas", al presentar un conjunto de
principios para el uso de esta tecnología.
"Continuaremos nuestro trabajo con el gobierno y las fuerzas armadas en muchas otras
áreas", escribió el presidente (CEO) de la empresa, Sundar Pichai, en
medio de presiones por un contrato con el sector militar que el gigante
tecnológico dijo la semana pasada que no sería renovado.
Pichai detalló los siete principios en los que Google basa el uso de inteligencia
artificial (IA) o cualquier computación avanzada que pueda simular
comportamiento humano inteligente. Dijo que Google usa IA para "ayudar a
la gente a abordar problemas urgentes" como predecir incendios forestales,
ayudar a los agricultores, diagnosticar enfermedades o prevenir la ceguera.
"Reconocemos que una tecnología tan poderosa levanta igualmente poderosas preguntas sobre su
uso", dijo Pichai en el blog. "Como la IA es desarrollada y usada
tendrá un impacto significativo en la sociedad por muchos años. Como líderes en
IA, sentimos una profunda responsabilidad de hacer esto de forma
correcta".
El CEO garantizó que los programas de IA serán diseñados para aplicaciones que son
"socialmente benéficas" y que "evitarán crear o reforzar
prejuicios injustos". Los principios incluyen que los proyectos sean
"construidos y probados para su seguridad", que sean
"responsables" e "incorporen principios de diseño de privacidad".
Google evitará el uso de cualquier tecnología "que cause o pueda causar un daño
general", escribió Pichai. Eso significa evitar las "armas u otras
tecnologías cuyo objetivo principal o implementación es causar o facilitar
lesiones a personas" y sistemas "que recopilen o usen información
para vigilancia que violen las normas internacionales".
El anuncio se produce en medio de una preocupación creciente de que se pueda
perder el control de sistemas automatizados o robóticos, generando un caos.
Varias empresas de tecnología han acordado mediante unos principios generales
el uso de inteligencia artificial para el bien, pero Google fue más preciso en
sus estándares.
La compañía, que es miembro de la Alianza de Inteligencia Artificial, que incluye
docenas de empresas tecnológicas comprometidas con los principios de IA,
enfrentó críticas por un contrato con el Pentágono llamado Proyecto Maven,
destinado a distinguir personas de objetos en videos de aviones no tripulados.
Después de una petición firmada por miles de empleados y de hacer frente a críticas
fuera de la compañía, Google anunció que el contrato de 10 millones de dólares
no sería renovado, según reportes de prensa.
¡Hazte voluntario para traducir al español otros artículos como este! manda un correo electrónico a espagnol@worldcantwait.net y escribe "voluntario para traducción" en la línea de memo.
E-mail:
espagnol@worldcantwait.net
|