¿Quieres recibir una notificación por email cada vez que Diasporaweb escriba una noticia?
Las cuestiones éticas como la automatización de las decisiones, pasan a primer plano por el control de los sistemas del Pentágono para la guerra. Luminarias como Stephen Hawking y Elon Musk creen que la Inteligencia Artificial supone una amenaza para la humanidad
El fundador de Microsoft, Bill Gates, Stephen Hawking, Elon Mus, Noel Sharkey y otros se unieron a otras personalidades del mundo intelectual para mostrar su temor por la inteligencia artificial, afirmando que los seres humanos deben estar preocupados por la amenaza que representa ese tipo de seres artificiales, sobre todo en casos de conflictos armados.
Durante la sesión de preguntas en Reddit, Bill Gates dijo que estaba de acuerdo con el empresario tecnológico Elon Musk -quien firmó junto con Stephen Hawking y otros pensadores destacados el 15 de agosto 2015, hace un año, una carta abierta sobre el peligro que implican los robots- y que está preocupado sobre cómo se va a utilizar la inteligencia artificial en el futuro.
"Yo estoy en el bando de los que se inquietan ante las superinteligencias", escribió. "Primero, las máquinas pueden hacer un montón de trabajo para nosotros sin ser superinteligentes. Eso es positivo si se gestiona bien. En unas décadas o antes, la inteligencia artificial será lo suficientemente fuerte como para constituir una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto, y no comprendo por qué a algunas personas no les preocupa".
En esta declaración, Gates contradice a uno de los jefes de Microsoft Research, Eric Horvitz, quien había dicho que "fundamentalmente" no ve la inteligencia artificial como una amenaza. Según él, cerca de la cuarta parte de los recursos de su equipo de investigación de Microsoft en Redmond se centra en la inteligencia artificial.
Eric Horvitz director del laboratorio, en Washington está poniendo en marcha un Estudio de los cien años en Inteligencia Artificial (AI100), con sede en la Universidad de Stanford, California, y dirigida por Horvitz y su esposa, que tiene como objetivo realizar un seguimiento del impacto de la inteligencia artificial (IA) en todos los aspectos de la vida, desde la seguridad nacional y la guerra a la psicología pública y la vida privada.
Horvitz ayudó a crear un comité permanente de investigadores interdisciplinarios que producirán un importante informe cada 5 años, todos más o menos contrarios al criterio de Bill Gates.
Horvitz ve la IA como básico para el cuidado de la salud, “hemos construido sistemas que pueden ser muy valiosos para la mejora de la prestación de asistencia sanitaria y reducir los costos“.
“Las cuestiones éticas como la automatización de las decisiones, clave del problema, podrían pasar a primer plano en algún momento de la próxima década, cuando el hombre tenga más vehículos autónomos en las carreteras y controlará los sistemas del Pentágono para la guerra IA. También hemos visto luminarias como Stephen Hawking y Elon Musk que hablan en la prensa acerca de cómo IA supondrá una amenaza para la humanidad algún día. Para otros investigadores, este tipo de posibilidad de que el robot sea un peligro para todos nosotros carecen de fundamento- sostiene Horvitz. Otros son inciertos, y algunas de las preocupaciones de las acciones, ridículas. De cualquier manera, tenemos que hacer frente a ellos.
Pero no hubo sangre en el enfrentamiento Bill Gates-Horvitz, quizás porque él es una de las grandes mentes pensantes de Microsoft, pero Bill Gates detenta un gran poder en las finanzas de la compañía.
Un grupo de investigadores del Instituto Tecnológico de Georgia, EE.UU., ha propuesto un nuevo método innovador para realizar test de inteligencia artificial a máquinas electrónicas, el llamado 'Lovelace 2.0', informa 'Tech Times'. La prueba requiere que el robot sea capaz de realizar una obra creativa a partir de criterios artísticos establecidos de antemano. O enseñárselo.
Tras establecer los criterios un científico-un juez neutral determinará si la tarea creada por la máquina cumple con dichos parámetros o no, sin tener en cuenta el valor artístico de la obra pero exigiendo que los elementos preestablecidos estén presentes en el trabajo final. La obra puede ser pintura, escultura u otra expresión artística y creativa.
Lovelace 2.0 reemplazará a la famosa prueba, creada en 1950 por Alan Turing, para determinar si una máquina es o no inteligente a través de una serie de preguntas cuyas respuestas evaluadas por el juez que no sabrá de antemano si quien le está contestando es un humano o un robot.
Los ingenieros de Boston Dynamics publicaron en YouTube un video de Atlas, su robot humanoide más avanzado, moviéndose como un experimentado karateka.
Los ingenieros de Boston Dynamics publicaron un nuevo video de este robot humanoide para demostrar que Atlas es capaz de realizar los movimientos de Ralph Macchio, que encarnaba a Daniel LaRusso en la película 'Karate Kid'. El video hizo que muchos se preguntaran qué habilidades tendrán los androides automatizados de próxima generación creados para la agencia del Pentágono DARPA, la “Military Inteligentsia” si se enfrentan a un humano. Si el video no está trucado, responderá a la interrogante de Bill Gates y Horvitz del peligro de la inteligencia artificial en relación con los humanos. Microsoft tiene la respuesta si consiente en el futuro que la prueba de autenticidad se haga.
Con una altura de 1, 88 centímetros, 150 kilogramos de peso y figura parecidos a los de 'Terminator', Atlas es el robot más desarrollado e imponente que se haya concebido hasta ahora porque hay varios otros en camino. Conforman la de Atlas una estructura de 28 articulaciones accionadas hidráulicamente, un potente ordenador que le permite desarrollar movimientos inquietantemente similares a los humanos y un equipo de música integrado.
Atlas está tan avanzado tecnológicamente que no tiene ningún problema para caminar sobre terreno irregular en un teatro de operaciones o liquidar al adversario con facilidad. Pero, ¿el poder de decisión dónde está?. Esa es la cuestion.
Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficción para entrar de lleno en la agenda internacional sobre desarme: la ONU se propuso reunir en Ginebra a decenas de expertos para estudiar todas las implicaciones de los llamados Sistemas Autónomos de Armas Letales (LAWS). El objetivo de los investigadores era convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantean profundos dilemas éticos, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable si una máquina autónoma comete un crimen? Que se sepa, todavía no existe; pero ahí está la tecnología capaz de desarrollarlas.
Poco a poco el uso de aviones y de otros mecanismos no tripulados se hace extensible a todo el planeta, tanto en el ámbito militar como civil. Pero mientras los drones son manejados por humanos, la industria militar se acerca al umbral de una nueva etapa de desarrollo, consistente en la creación de armas absolutamente autónomas de los humanos.
La creación de robots asesinos capaces de actuar e incluso de valerse de armas para matar seres humanos “sin preguntar” no puede no ser motivo de preocupación. El primer debate sobre la eficacia y necesidad de tales armas se celebró el 13 de mayo en un encuentro informal en la ONU, en Ginebra, que duró cuatro días. Los profesores Ronald Arkin y Noel Sharkey intervenieron como los principales detractores en este debate que se realizó en el marco del Convenio sobre Ciertas Armas Convencionales de la ONU (CCA). El balance del debate será presentado a la CCA en noviembre.
Según Noel Sharkey, cofundador de la Campaña Contra Robots Asesinos y presidente del Comité Internacional por el Control de Armas Robóticas, las armas letales autónomas son posibles amenazas para la humanidad y, por lo tanto, tienen que ser prohibidas. "No se puede garantizar que los sistemas de armas autónomas respeten de forma predecible el derecho internacional", comentó Sharkey a la BBC, argumentando que la ausencia de diálogo internacional sobre estas armas representa "un gran riesgo para lod humanos".
Por su parte, quienes están a favor de las armas robóticas esgrimen que si algún día se extendiera su uso, las actuales leyes de guerra bastarían para resolver cualquier problema que pudiera surgir y que, en caso contrario, una moratoria sería una alternativa a la prohibición absoluta. Según ellos, las armas autónomas podrían "reducir de manera significativa el número de víctimas no combatientes" e, hipotéticamente, serían capaces de determinar los blancos, decidir si es necesario usar las armas y hacerlo mejor que los humanos, cree Ronald Arkin, del Instituto Tecnológico de Georgia, citado por la BBC. El problema aquí es que los 'robots asesinos' podrían ser usados por países antes de que este objetivo sea logrado. Por eso apoya la moratoria temporal, pero se opone a la prohibición de las armas robóticas
“Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, el famoso profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares bajo el lema Stop Killer Robots!!. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisión”.
El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y se han conseguido acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonas y los láser cegadores, aunque las pistolas eléctricas siguen usándose sin control. Este armamento inhumano existía de hecho, pero se prohibió justo antes de que estuviese operativo y eso es lo que pretenden los científicos: que los robots asesinos no lleguen a crearse nunca ni como una posibilidad. Muchos países han desarrollado sistemas de armas autónomos, como el x47-B de EE.UU., un avión que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta –por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte–, pero la decisión de abrir fuego sigue siendo humana. Por ahora.
Con motivo del encuentro de Ginebra, Human Rights Watch y Harvard Law School’s International Human Rights Clinic publicó un informe que denuncia lo que implicaría el que las máquinas tuvieran la capacidad de decidir sobre la vida y la muerte del enemigo en el campo de batalla. Su conclusión es clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.
Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator: “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se puedan dejar llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles“.
Debido a que estas armas revolucionarían la guerra, también pueden desatar- y han desatado ya- una carrera armamentistica. Cuando estén totalmente desarrolladas, se producirán en tales cantidades una proliferación a gobiernos irresponsables, a grupos armados no estatales, a fuerzas “especiales“. Y a terroristas.
Algunos críticos también argumentan que el uso de robots podría hacer más fácil, para los líderes políticos recurrir a la fuerza para reducir el riesgo de sus propios soldados. A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad en caso de accidente con un coche autónomo.
El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, ha desarrollado un cuestionario sobre los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía estamos a tiempo para detener que la decisión de matar sea autónoma, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto.
El complejo militar e industrial no ve el menor inconveniente para seguir inundando de armas el mundo, incluido el tercero
¿Son los drones, robots asesinos?. Probablemente no será una sorpresa si aparecen cualquier día de estos según una indiscreción de los técnicos especializados en aviones no tripulados que desarrolla actualmente en EE.UU. han decidido que la intención es que funcionen sin control humano alguno y se ha conviertan en verdaderos 'robots asesinos'.
Medio Oriente empieza a temblar porque ya las noticias al respecto de Pakistán, Afganistán, Siria y Yemen son aterradoras. La guerra contra el terror del Pentágono -desarrollada por el presidente George Bush- se ha convertido en la guerra de terror contra terror y no es sólo virtual.
¿Quiénes son los buenos?. El Pentágono tiene previsto aumentar el sobrevuelo de drones alrededor del mundo en un 50% para intensificar misiones de vigilancia e inteligencia, así como ataques teledirigidos, según informa «The Wall Street Journal». Según este diario económico, que cita como fuentes a funcionarios del Gobierno, el Pentágono prevé ampliar el número de vuelos diarios desde los actuales 61 hasta alrededor de 90 para el año 2019.
Este será el más importante incremento del uso de esos aviones no tripulados desde 2011 y un paso más hacia la extensión de esa tecnología teledirigida autónoma en el ámbito militar, como los submarinos que disparan drones autónomos, a esta guerra el presidente Barack Obama, ha dado un protagonismo sin precedentes.
Washington insiste en que sus drones apuntan únicamente contra los terroristas, pero los países en los que se llevan a cabo los referidos ataques, como Afganistán, Paquistán, Yemen, Somalia, han denunciado, en varias ocasiones, que estas incursiones acaban en muchos casos con la vida de civiles. Son lo que en la jerga militar se llaman “daños colaterales”.
Exmilitares norteamericanos con más de 20 años de experiencia, entre ellos cuatro oficiales de la Fuerza Aérea y tres exoperadores de drones, en una misiva dirigida al presidente Barack Obama, le han pedido que reconsidere el polémico programa militar de aviones no tripulados que abarca gran parte de la estrategia “antiterrorista” impulsada desde la Casa Blanca, informó el diario británico The Guardian. La muerte de civiles por ataques de drones refuerza al EIIL (Daesh, en árabe) y a otros grupos terroristas y “alimenta los sentimientos de odio que encienden el terrorismo y, a la vez que es una herramienta fundamental que sirve para el reclutamiento como sirvió la prisión de la Bahía del Guantánamo”, reza la misiva de los exmilitares.
La carta, fue enviada tambien al secretario de Defensa, Ashton Carter y al jefe de la Agencia Central de Inteligencia (CIA), John Brennan.
El controversial programa de drones comenzó con la égida de la llamada guerra contra el terrorismo impulsada por el anterior presidente, George W. Bush, y fue ampliado de manera espectacular bajo el mandato de Obama.
El departamento de Defensa de los Estados Unidos anda preocupado con los submarinos ajenos -chinos o coreanos- y tras muchos estudios ha desarrollado un vehículo no tripulado que se encarga de localizarlos y hundirlos. Los chicos de DARPA ha creado el Sea Hunter autónomo con permiso para hundir, o sea, matar. (Cazador de Submarinos). Tiene 40 metros de largo y sólo pesa 140 toneladas. La Casa Blanca se encarga después de las excusas diplomaticas para no ir a la III Guerra mundial por eso y las discusiones de chinos, coreanos o japoneses, se dejan a los medios.
¿Qué es un Sea Hunter? Pues es un vehículo que circula por la superficie del mar y es completamente autónomo, no tiene ningún tipo de tripulación. A bordo nadie ordena, ni hay propiamente cabina de mando... “Él” toma las decisiones. Es totalmente un IA. Se encarga de rastrear el fondo marino que tenga debajo, en busca de otros vehículos y objetos.
Como los submarinos híbridos -diesel y eléctricos, chinos o coreanos- eran una pesadilla para el Pentágono, lo solucionó llamando DARPA y dándole instrucciones. Al parecer Rusia y China tienen planes de expansión en este área. Y la forma de tenerlos controlados es colocarle un Sea Hunter encima.
El grueso de las operaciones del Pentágono seguirá siendo de vigilancia y recopilación de inteligencia en zonas «calientes» como el norte de África, Ucrania, Siria, Irak, Afganistan o el Mar de China Meridional. Además, el Pentágono contempla que no solo la Fuerza Aérea lleve el peso de las misiones con drones como el “MQ-1
Predator“ o el “MQ- 9 Reaper“, sino también otras unidades, como el recién estrenado “Sea Hunter“.
La Fuerza Aérea de EE.UU. piensa aumentar, de manera masiva, la producción de drones en un proyecto valorado en 3.000 millones de dólares.
Según Los Angeles Times, el plan busca agregar, durante los próximos cinco años, 75 drones de combate tipo MQ-9 Reaper a los 175 Reapers y 150 MQ-1 Predators, ya en servicio, una medida con la que el número de los escuadrones de drones ascenderá de 8 a 17.
El proyecto, que tendrá que contar con la aprobación del Congreso dominado por los republicanos, además tiene previsto emplear a unos 3.500 nuevos pilotos (a distancia) de drones y otro tipo de personal, así como la construcción de cinco nuevos centros de operación de aviones teledirigidos a lo largo del país. Los nuevos cinco centros de operaciones podrían costar 1.500 millones de dólares y en cada uno de ellos trabajarían de entre 400 a 500 pilotos y otros tantos agentes.
Actualmente, todas las operaciones de los drones en el mundo se dirigen desde Creech Air Force Base, situada en el estado de Nevada.
Los funcionarios del Departamento de Defensa de EE.UU. también están barajando crear un centro de operaciones en Lakenheath, una base de la Real Fuerza Aérea británica en Suffolk, situada al este de Reino Unido, pero esta medida requeriría un acuerdo con las autoridades de Londres. Pero el problema ahora es con Turquía.
“Estamos respondiendo a la demanda desde los comandos de fuera”, respondió el portavoz de la Fuerza Aérea de EE.UU. al sitio Web militar local Defense One, Benjamin Newell.
El plan llega mientras el Pentágono dice haber intensificado recientemente su campaña de ataques aéreos en Siria, Irak y Afganistán, en momentos en que está sufriendo escasez de operadores de drones.
El operativo del Pentágono abarcará a partir de ahora al Ejército de Tierra con unos 16 vuelos diarios, las Fuerzas Especiales entrarían por primera vez en este tipo de juego y tambien otros agentes del Gobierno norteamericano que se encargarían de dirigir la observación. Además, la Armada está desarrollando un grupo independiente y más avanzado de drones, que operarían desde portaaviones, como en el caso del X-47B, de manera autómata e integrada con otro tipo de fuerzas.
Los drones también son pieza clave en las operaciones de espionaje de la Agencia Central de Inteligencia (CIA), que depende casi totalmente de las imágenes que les transmiten los militares. Una de las partes más polémicas de esta cooperación son los ataques aéreos secretos con drones que el Departamento de Defensa y la CIA efectúan conjuntamente para acabar con terroristas. En total, Estados Unidos podría haber matado en bombardeos con drones a unas 3.000 personas, según estimaciones de varios grupos independientes.
Hace una década, el número de estos aparatos no rebasaba unas cuantas unidades, pero ahora existen más de 7.500 y su producción se acelera cada día más, según el propio Pentágono. En enero pasado, el Pentágono anunció que comprará 100.000 unidades más. La razón es que son más baratos tanto en su construcción como en su operación, que los aviones tripulados.
Pero para los mandos del Pentágono el potencial de estos aparatos no ha sido todavía debidamente aprovechado. El plan antiterrorista de EE. UU. tiene como objetivo conseguir que para el año 2047 los drones no tripulados puedan operar sin ninguna supervisión humana, ni siquiera desde centros de control remotos como se hace ahora. Estos artefactos podrían funcionar independientemente gracias a un nuevo software y a sofisticadas computadoras. Bill Gates y Hawking tienen toda la razón: la inteligencia artificial ha vencido o casi.
“Los avances en inteligencia artificial harán posible que estos sistemas tomen decisiones de combate y actúen sin necesitar la intervención humana”, sostiene el documento titulado ‘Unmanned Aircraft Systems Flight Plan 2009-2047’. Según este texto, actuarán conforme a lo programado, si los humanos no pueden vetar sus decisiones y reprogramarlos, eso si logran hacerlo suficientemente rápido.
"El mayor atractivo de los sistemas no tripulados es no mandar a nuestros hijos e hijas al peligro”, comentó por su parte el Dr Peter W. Singer, experto en Medio Oriente de la Institución Brookings (EE. UU.) en un artículo publicado en The New York Times. No hay para ese señor problemas éticos o morales. Un psiquiatra diría que ese señor tiene problemas en casa, pobablemente su padre, siendo niño, le pegaba. Debía buscarse un Dr. Freud cuanto antes, alguien sin cinco estrellas en la manga.
Pero además el Dr. Singer se atreve a advertir: “Cuando los políticos puedan evitar las consecuencias de una carta de condolencias y el impacto de las bajas militares propias sobre sus electores y medios de comunicación importantes, ya no considerarán las cuestiones de guerra y paz, ni las bajas, ni nada, que anteriormente pesaban“.
A Noel Sharkey, informático británico y experto en robots, le interesa otro aspecto del problema. “Las acciones letales deben tener una cadena clara de responsabilidades. Con las armas robóticas es muy difícil. Un robot no puede ser considerado responsable. Entonces, ¿quién será? ¿El comandante que lo usó? ¿El político que lo autorizó? ¿El proceso de adquisición militar? ¿El fabricante?”, acentúa.
Hoy día, los drones manejados desde centros de control remotos son una parte esencial de la máquinaria de guerra de EE. UU. en los territorios señalados. Se saben todos los detalles sobre drones y agentes de Operaciones Especiales en la operación que acabó con el terrorista número uno del mundo, Osama Bin Laden, igual que en otras operaciones contra los miembros de de varios grupos yihadistas.
Según la organización de defensa de los derechos humanos Human Rights Watch, las víctimas de los ataques con drones han sido en muchos casos civiles. Solo en Pakistán, durante los últimos ocho años los ‘fallos’ por parte del manejo de drones norteamericanos a control remoto han dejado un saldo de entre 2.292 y 2.864 víctimas mortales entre la población civil, entre ellas había al menos 168 niños, según calcula la Oficina de Periodismo de Investigación (Londres).