Post on 08-Jul-2020
SAFMUN
2016 “No necesitamos una máquina
comparable a una persona para que sea un arma
totalmente autónoma, capaz de tomar una decisión sin intervención humana. Más difícil es asegurar que esa
decisión sería la misma que tomaría una persona, que es la
razón por la cual, afortunadamente, esta vía despierta tanto rechazo.”
Murray Shanahan.
Profesor de Robótica Cognitiva del Imperial
College, Londres.
MANUAL DEL DELEGADO.
COLEGIO SAN ANTONIO DE LA FLORIDA
29 | 30 | 31
ENERO 2016
COMISIÓN DE DESARME Y
SEGURIDAD INTERNACIONAL.
DISEC.
CARTA DEL SECRETARIADO GENERAL DEL
SAN ANTONIO DE LA FLORIDA MODEL UNITED NATIONS
Estimados delegados, observadores y faculties:
Reciban primeramente un cordial saludo de ¡Paz y Bien!
Sean todos bienvenidos a la Tercera Edición del San Antonio de la Florida Model
United Nations, SAFMUN 2016. Es un gran honor contar con ustedes, delegados, observadores,
faculties y demás participantes quienes formarán parte de este gran evento, por eso procuraremos
mantenernos a la altura en calidad y esfuerzo para que esta, sea una gran experiencia que les
permita formarse moral y académicamente, para crear una realidad distinta, una realidad más
humana.
Es impactante saber que cada vez más jóvenes se interesan por este tipo de actividades, y
aún más que se sensibilicen y preocupen por los acontecimientos que a diario suceden en el
mundo. En SAFMUN creemos que lo más importante que se debe desarrollar en los jóvenes es
una conciencia crítica, capaz de comprender los sucesos, analizarlos, cuestionarlos y generar
propuestas de solución. Este aspecto es muy importante, porque nos hace dejar de ser pasivos y
actuar para cambiar y transformar la realidad que amenaza con avasallarnos. Son, precisamente,
la pasividad, la indecisión y la indiferencia, las que dan como resultado todos los problemas que
aquejan nuestra sociedad. Debemos ser capaces de criticar nuestra realidad y accionar para
cambiarla por una más libre, prospera y humana. Esto es lo que apoya y persigue un Modelo de
Naciones Unidas: Jóvenes con conciencia crítica, con capacidad de decisión y acción.
En esta edición presentamos distintos comités, en los que se abordarán grandes
problemáticas políticas, económicas, morales y religiosas; temáticas tanto históricas como
actuales e inclusive futurísticas, temas y sucesos que consideramos de profunda importancia para
nuestra existencia y esencia como seres humanos, creados con gran esfuerzo y dedicación para
la formación y disfrute de todos los delegados.
Esperamos que, durante estos tres días, el debate sobre los tópicos a tratar en cada
comité nos sirva para aprender cosas nuevas, cultivarnos, alentar e inspirar a más jóvenes a tener
presente que todo es posible, que concretar nuestro sueños e ideales solo depende de cada
decisión que tomemos; y que no estamos determinados ni condicionados por nadie, que somos
enteramente libres y que esta libertad es nuestra responsabilidad. Si logramos asumir que esa
Libertad Responsable nos permitirá crear un mejor presente y prepararnos para construir día a
día el futuro que aspiramos, SAFMUN habrá cumplido sus objetivos.
Sin más que añadir esperamos que SAFMUN 2016 sea una gran experiencia y les
deseamos, desde ya, el mayor de los éxitos a todos sus participantes.
Atentamente:
Ernesto Jesús Borges Quintana. Andrea Virginia Villegas Pérez.
Secretario General Secretaria General Adjunta
“Un Hombre es lo que hace con lo que hicieron de él”. -Jean Paul Sartre-
CARTA DE LA MESA
Estimados delegados:
Reciban una cordial bienvenida a la III Edición del San Antonio de la Florida
Model United Nations (SAFMUN 2016) de parte del Comité Organizador y de quienes
tendrán el honor de conducir la moderación en la Comisión de Desarme y Seguridad
Internacional -Disarmament and International Security- DISEC-.
Es un verdadero reto para nosotros, que estamos formándonos en las tareas de
moderación y dirección de debates, realizar nuestro trabajo de forma tal que vean
plenamente satisfechas sus expectativas y que el desarrollo de las discusiones constituya
una experiencia de aprendizaje para ustedes y nosotros.
La importancia de este comité en el mundo real es de conocida por todos. Nuestra
aspiración es que podamos acercarnos a esa realidad y que nuestras conversaciones nos
lleven a tomar decisiones que sirvan para resolver los problemas que estudiaremos y
analizaremos a lo largo de los tres días del modelo.
Como integrantes de la Comisión de Desarme y Seguridad Internacional,
tenemos el compromiso de solucionar creativamente las dificultades que en la actualidad
son generadas por el mal uso del armamento, lo que evidentemente vulnera la seguridad
de todos. Confiamos en que estas discusiones dejen huella en ustedes y que podamos
demostrar con hechos los aprendizajes que hemos obtenido en nuestras experiencias
como delegados.
Una vez más bienvenidos y que disfruten su participación en SAFMUN 2016.
¡Éxito!
ATTE:
Carlos Eduardo Lima Silva. Yessika Tirado Nieto.
Presidente. Vicepresidente.
carloseduardofuerte@gmail.com yessika_safmun@outlook.com
INTRODUCCIÓN GENERAL
Esta Comisión de Desarme y Seguridad Internacional tiene como objetivo que los
delegados presentes durante el Modelo puedan llegar a soluciones claras con respecto a los
temas a debatir, atendiendo a las cuestiones a considerar, sin exceptuar otras que surjan durante
las discusiones. Así, se discutirán: La regulación de la producción y uso de Armas Autónomas
Letales; y la Aplicación de mecanismos integrados para la detección e inutilización de
armas a distancia, para impedir su uso por grupos terroristas e irregulares.
En el marco de las atribuciones de la Comisión de Desarme y Seguridad Internacional,
se procurará el establecimiento de mecanismos de trabajo que permitan solventar las situaciones
asociadas a ambos temas, por lo que se hará necesaria una preparación intensa y adecuada de
los delegados convocados a esta instancia. La información contenida en el presente manual es
solo referencial, por lo que deberán complementarla a los fines de asegurar un desempeño
exitoso de sus funciones como delegados.
ESTRUCTURA Y FUNCIONAMIENTO
El funcionamiento y estructura del comité responderán a los parámetros convencionales.
Así, durante el desarrollo de las sesiones se aplicarán las reglas de debate acostumbradas y que
están descritas en la Guía de Preparación del Delegado. En la Primera Sesión cada delegado,
registrada la asistencia, entregará su Documento de Posición y establecerá la misma ante el
foro una vez que se presente y apruebe la moción de apertura de cada tópico. En todo momento
deberán mantener la postura y comportamiento diplomático correspondiente a su condición de
delegados o embajadores.
Dada la naturaleza de los tópicos, los delegados podrán solicitar la apertura de Caucus
Moderado y/o Simple en función de la dinámica de las discusiones y con la venia de la Directiva,
que validará tales requerimientos una vez sean votados y aprobados por el Foro.
DELEGACIONES PRESENTES EN EL COMITÉ
DELEGACIONES
Egipto.
Sudáfrica.
Libia.
Israel.
Estados Unidos.
Venezuela.
México.
Brasil.
Colombia.
China.
Irán.
República de Corea.
India.
Japón.
Siria.
Federación Rusa.
Francia.
Gran Bretaña e Irlanda del Norte.
Italia.
España.
Alemania.
República Democrática y Popular de Corea
Argentina.
Pakistán.
Total 24
TÓPICO A:
REGULACIÓN DE LA PRODUCCIÓN Y USO
DE ARMAS AUTÓNOMAS LETALES.
En la actualidad, Los avances
tecnológicos están permitiendo desarrollar
robots cada vez más autónomos. En la vida
civil, esto está plagado de ventajas: desde los
robots que desde hace años aspiran suelos sin
despeñarse por las escaleras a los coches que
Google dice que nos transportarán sin
conductor. Esta misma semana se supo
que los primeros camiones con piloto
automático -diseñados por Daimler- ya circulan
en el Estado de Nevada. En el plano militar, sin
embargo, hay muchas dudas.
Los LAWs (Lethal Autonomous
Weapon) ya protagonizan un fuerte debate.
Los robots inteligentes con capacidad de matar
de manera autónoma se denominan Armas
Autónomas Letales (LAWs, en sus siglas en
inglés) y aunque todavía no hay noticia de que
se haya desarrollado ninguna, ya protagonizan
un fuerte debate en la comunidad
internacional.
El profesor de robótica Noel
Sharkey explica que “según el
Departamento de Defensa de EE.UU., un
LAW es un arma militar que, una vez
activada, se enfrenta a sus enemigos sin
otro tipo de intervención. Eso quiere decir
que rastrea y selecciona sus propios
objetivos para matarlos o ejercer violencia
contra ellos sin un control humano
significativo. En esencia, es un robot
asesino”.
Sharkey es una de las voces más activas de la
Campaña para “Parar los Robots Asesinos”,
en la que toman parte ONG de todo el mundo
sobre control de armamento y derechos
humanos.
Profesor Noel Sharkey
Las posiciones sobre los robots
asesinos oscilan entre quienes los consideran
una vulneración de las leyes humanitarias y los
asimilan a las armas químicas o biológicas -
exigiendo su prohibición preventiva-, y quienes
los asimilan a las armas de alta precisión y
defiendan que solo hay que regularlas.
Menos daños colaterales:
Para sus detractores, hay dudas muy
inquietantes sobre la capacidad de los robots
de asimilar principios de la legislación
internacional humanitaria como
la proporcionalidad en un ataque, de
discriminar las intenciones pacíficas o
agresivas de un sujeto o de distinguir a un civil
inofensivo de un terrorista camuflado.
Otros consideran que los robots serían
mejores soldados, y más “humanos” que los de
carne y hueso. Ron Arkin, del Georgia
Institute of Technology, cree que las
máquinas, desprovistas de reacciones de
pánico, inseguridad o venganza, reducirían el
número de víctimas en un conflicto. Para
Arkin, los robots tendrán más capacidad de
determinar cuándo no se debe atacar a un
humano. “Defiendo una moratoria hasta que
se consiga eso, pero no apoyo que se
prohíban”, ha dicho en declaraciones a los
medios.
Profesor Ronald -Ron- Arkin.
Para algunos, los robots asesinos serán
una tentación a la que los Gobiernos no se
podrán resistir: no solo se ahorrarán vidas de
sus ciudadanos, sino también mucho dinero.
Se estima que cada soldado estadounidense
destacado cuesta 850.000 dólares al año a los
contribuyentes. Pero Sharkey también ve
un lado negativo a esto: “Si no tienes que
afrontar el ver féretros de vuelta a tu país, si
simplemente puedes mandar robots al
frente, entonces no habrá forma de parar el
número de conflictos en los que te puedes
embarcar”.
Las lagunas jurídicas:
Otro aspecto muy discutido es la
responsabilidad de estos autómatas asesinos.
En casos de crímenes cometidos por los
robots, ¿a quién se podría culpabilizar?
Un informe de Human Rights Watch y de
la Universidad de Harvard advierte de las
dificultades para asignar responsabilidad
personal, tanto criminal como civil, en actos
cometidos por armas completamente
autónomas. “La ausencia de
responsabilidad significa que no habrá
disuasión de crímenes futuros, ni
compensación a las víctimas, ni condena
social”, asegura Bonnie Docherty, la
directora del estudio. “Los obstáculos para la
justicia justifican por qué debemos prohibir por
completo las armas autónomas”.
Solo cinco países en contra:
La reunión de Ginebra acabó sin
conclusiones. La mayoría de los países
entienden que es necesario un cierto control
humano, pero no se ha delimitado. Solo cinco
países -Pakistán, Egipto, Cuba, Ecuador y el
Vaticano- fueron favorables a una prohibición
de los robots asesinos. La mayoría de los
países optaron por seguir las conversaciones
en otoño para encontrar una regulación de
estas máquinas. Mientras tanto, las grandes
potencias avanzan en la automatización de sus
aparatos militares: Reino Unido desarrolla el
“Taranis”, un dron semiautónomo capaz de
desarrollar misiones de larga
distancia; Israel sigue perfeccionando su
“Cúpula de Hierro”, un sistema que puede
detectar e interceptar misiles por sí mismo.
Sistema Semiautónomo “Taranis”.
El dron Taranis es uno de los desarrollos
armamentísticos de vanguardia, con una
tecnología única en su clase. Sus detalles son
uno de los secretos mejor guardados. Su
autonomía para detectar y atacar objetivos
genera polémica.
Con una velocidad que supera los 1.126
kilómetros por hora, capacidad para realizar
tareas de vigilancia, conseguir información,
marcar objetivos e incluso atacarlos con la sola
supervisión humana en tierra, el nuevo dron es
considerado como una las nuevas joyas de la
tecnología militar.
David Coates, vocero de BAE
Systems, la compañía encargada de su
producción, destacó que el avión no tripulado
es "virtualmente invisible a los radares". Sin
embargo, el dron aún no está terminado y
según publicó el portal Tech Insider, los
militares británicos no planean incorporarlo a
su flota, por lo que será usado para probar
tecnología que pueda ser incluida en futuras
aeronaves. Corea del Sur utiliza desde hace
años un robot de Samsung en la frontera con
Corea del Norte que registra movimientos
humanos y es capaz de lanzar ataques; el dron
supersónico de Estados Unidos, X47B, crea
su propia ruta y sabe aterrizar y despegar sin
intervención humana.
Northrop Grumman X-47B
Y Rusia celebró ayer el 70 aniversario
de la victoria en la Segunda Guerra Mundial
con un desfile en el que el protagonista fue
el T-14 Armata, un tanque cuya torreta se
cargará y disparará sin intervención humana.
Por el momento, estas innovaciones necesitan
de la acción humana para funcionar. Pero se
estima que en 2029 las máquinas serán tan o
más inteligentes que los hombres. No lo dice
cualquiera, sino Raymond Kurzweil, el
director de ingeniería de Google.
Retos humanitarios y éticos:
Considerando los avances tecnológicos
en materia de armas, es posible que, en el
futuro, se presenten situaciones en las que
máquinas que funcionarán sin intervención
humana tengan que tomar decisiones de vida
o muerte en el campo de batalla.
Dadas las numerosas cuestiones que
plantea el empleo de armas autónomas, para
las que aún no se ha hallado respuesta, los
Estados deberían evaluar el costo humano del
empleo de las nuevas tecnologías de guerra y
las consecuencias que tendría en cuanto al
derecho internacional humanitario.
Las armas autónomas (también
conocidas como robots autónomos letales
o "robots asesinos") podrían buscar,
identificar y atacar objetivos, incluidos seres
humanos, empleando fuerza letal sin que
intervenga un humano. A diferencia de los
sistemas defensivos altamente automatizados
que se suelen emplear en la actualidad, por lo
general para derribar misiles o morteros de
artillería, por ejemplo, las armas autónomas
podrían operar fuera de límites espaciales y
temporales muy estrechos. Podrían aprender a
adaptar su funcionamiento en respuesta a
circunstancias cambiantes en el entorno en el
que se las despliegue. Aún no se han
empleado armas de este tipo en el campo de
batalla. Sin embargo, esta cuestión suscita un
interés considerable y atrae fondos para
investigación, de modo que esas armas
podrían ser una característica de las guerras
del futuro.
Actualmente no existen normas
específicas sobre las armas autónomas. Sin
embargo, el derecho establece que los
Estados deben determinar si el empleo de
armas, medios o métodos de guerra nuevos
que desarrollen o adquieran estaría prohibido
por el derecho internacional humanitario en
algunas circunstancias o en todas. En otras
palabras, las normas del derecho internacional
humanitario, establecidas ya desde hace largo
tiempo, en particular las normas de distinción,
proporcionalidad y precauciones en el ataque,
se aplican a todas las armas nuevas y los
desarrollos tecnológicos bélicos, incluidas las
armas autónomas.
El principal desafío para los Estados es
asegurarse de que los sistemas autónomos
puedan cumplir todas estas normas. Por
ejemplo, hoy en día no se sabe con claridad si
esas armas podrían distinguir entre un civil y
un combatiente, como exige la norma de
distinción. En realidad, las armas de ese tipo
tendrían que poder distinguir no sólo entre
combatientes y civiles, sino también, por
ejemplo, entre combatientes activos y
combatientes fuera de combate, y entre civiles
que participan directamente en las hostilidades
y civiles armados, como el personal de
mantenimiento del orden o los cazadores, que
están protegidos contra los ataques directos.
Las armas autónomas también deberían
cumplir la norma de proporcionalidad, que
exige que los daños a civiles causados
incidentalmente por un ataque contra un
objetivo militar no sean excesivos en relación
con la ventaja militar directa y concreta
prevista. Por último, en el empleo de armas
autónomas, se debería poder aplicar las
precauciones requeridas en los ataques
destinados a reducir lo máximo posible el
número de víctimas civiles.
Las armas autónomas podrían
funcionar sin supervisión humana, a diferencia
de los aviones manejados a distancia (también
conocidos como "drones") que hoy se emplean
y que necesitan de operadores humanos para
seleccionar objetivos y activar, dirigir y disparar
las armas que llevan.
Los defensores de los sistemas
autónomos sostienen que, gracias a los
sensores sofisticados y la inteligencia artificial
que emplean, estos sistemas podrían
identificar los objetivos militares y evitar
víctimas civiles de forma más eficiente que un
soldado humano. También sostienen que los
sistemas de armas autónomos no estarían
influenciados por emociones humanas
negativas, como el miedo, el enfado o el deseo
de venganza. Por otro lado, los sistemas de
armas autónomos carecerían de emociones
humanas positivas, como la compasión, el
juicio y la experiencia humana, necesarias
para evaluar correctamente un intento genuino
de rendirse o la ventaja militar directa y
concreta prevista de un ataque. Por otro lado,
el despliegue de esas armas reflejaría un
cambio de paradigma y de calidad importante
en cuanto a la conducción de las hostilidades.
En última instancia, la cuestión es si los
dictados de la conciencia pública permitirán
que las máquinas tomen decisiones de vida o
muerte y apliquen fuerza letal sin control
humano.
Dado que es una máquina, un arma
autónoma no podría ser responsabilizada de
una violación del derecho internacional
humanitario. Esto plantea la cuestión de quién
sería legalmente responsable si el empleo de
un arma autónoma diera lugar a un crimen de
guerra: ¿el programador, el fabricante o el
comandante que despliega el arma? Si la
responsabilidad no puede ser determinada
como exige el derecho internacional
humanitario, ¿es lícito o ético desplegar
sistemas de ese tipo?
Nuevas tecnologías y derecho internacional
humanitario:
A raíz de los desarrollos tecnológicos,
han surgido nuevos métodos y medios de
guerra, como los ataques cibernéticos, los
drones armados y los robots, que plantean
nuevos retos humanitarios y jurídicos. Al
desarrollar o adquirir armas, medios o métodos
de guerra nuevos, es sumamente importante
que los Estados verifiquen si cumplen con lo
establecido en el derecho internacional
humanitario. Sin embargo, al aplicar normas
jurídicas preexistentes a las nuevas
tecnologías, es posible que surja la cuestión de
si las normas son suficientemente claras por lo
que respecta a las características específicas
de la tecnología y a sus efectos posibles en el
plano humanitario.
Atlas, el robot bombero desarrollado por Boston Dynamics
Se llama Atlas, es un robot y está
siendo entrenado para convertirse en
bombero. Un robot bombero. Se trata de un
sofisticado humanoide de aluminio y titanio de
1,80 metros de altura desarrollado por la
empresa Boston Dynamics en colaboración
con DARPA, la Agencia de Proyectos de
Investigación Avanzados del Departamento
de Defensa de EEUU. Desde que fue
presentado en 2013, sus capacidades han ido
perfeccionándose con el objetivo de que algún
día participe en tareas de rescate. Atlas es un
ejemplo de lo que la robótica podría hacer por
la humanidad en el futuro: reemplazar a las
personas en misiones peligrosas. Desde
intervenciones en incendios o áreas
devastadas por terremotos, a accidentes
nucleares como el de Fukushima, en el que los
operarios de la central japonesa arriesgaron su
vida (algunos de ellos la perdieron) para
contener la fuga radiactiva. Los sistemas
actuales son programados por el hombre y
requieren, en mayor o menor medida, de su
intervención. Sin embargo, los avances en
Inteligencia Artificial (IA) apuntan a que dentro
de unos años, décadas quizás, las máquinas
serán autónomas. Podrán tomar decisiones y
ejecutarlas.
El uso militar de los drones o vehículos
aéreos no tripulados ya resulta polémico. Pero,
¿qué ocurriría si esos futuros robots
autónomos reemplazaran a los soldados en el
campo de batalla? La misma tecnología que
permitiría salvar vidas humanas, podría usarse
en guerras. Y el sector militar es uno de los
más interesados en financiar y desarrollar este
tipo de armamento.
Desde hace años, varias
organizaciones internacionales, entre las que
se encuentran Human Rights Watch y la
plataforma Stop Killer Robots, están
alertando a la comunidad internacional sobre el
que consideran un inquietante y preocupante
escenario de futuro. Ya se ha producido dos
reuniones de trabajo sobre el tema, la última
en Ginebra. Se trata de la segunda reunión
informal de expertos convocada por miembros
de la Convención sobre Armas
Convencionales (CCW) de la ONU para
avanzar en un futuro acuerdo que prohíba el
desarrollo de los Sistemas de Armas
Autónomos Letales (LAWS, por sus siglas
en inglés), conocidos como robots
asesinos.
Se trata de una tecnología que plantea
importantes cuestiones éticas: ¿Quién sería
jurídicamente responsable de la actuación
de un robot autónomo? ¿Es aceptable que
una máquina decida sobre la vida de una
persona?
Peter Asaro, cofundador y
vicepresidente del Comité Internacional para
el Control de Armas Robóticas (ICRAC, por
sus siglas en inglés), ha dicho que es posible
crear un tratado internacional que prohíba las
armas autónomas que seleccionen objetivos y
los ataquen sin un control humano significativo.
La tecnología para fabricar ese tipo de armas
ya existe. No desarrollar ese armamento es
sólo una cuestión de voluntad de países y sus
ejércitos, Asaro es uno de los expertos que ha
participado en los debates y mesas junto a
políticos, diplomáticos, científicos, ingenieros,
abogados y representantes de los derechos
civiles, para discutir sobre los robots asesinos,
cuya prohibición ha sido solicitada también por
el Vaticano. Hay precedentes. En 1995, por
ejemplo, se acordó vetar el uso de armas
láseres cegadores.
“Ya es hora de que las naciones
pasen de hablar sobre este tema a tomar
medidas”, ha reclamado durante su
intervención la activista Jody Williams,
Premio Nobel de la Paz en 1997 por su
trabajo para prohibir el uso de minas
antipersona y municiones de racimo, y
miembro fundador de la campaña Stop Killer
Robots.
“Debería ser obvio que el uso de cualquier
arma debe permanecer bajo control
humano”, sostiene Thomas Nash,
cofundador de Stop Killer Robots y director
de Article 36, una organización que pretende
reducir los daños causados por las armas.
Según recuerda Stop Killer Robots,
aunque los ejércitos de EEUU, China, Israel,
Corea del Sur, Rusia o Reino Unido ya
utilizan sistemas de armamento parcialmente
autónomos, estos necesitan, en distintos
grados, que una persona tome la decisión final.
Se teme que una mayor autonomía se
traduzca en sistemas que hagan posible que
una máquina tenga la capacidad de
seleccionar un objetivo y atacarlo sin
intervención humana.
“Ahora mismo se puede desarrollar un
programa que tome decisiones en función
de los datos que se le den. La pregunta es
cómo de buena es esa decisión (es decir,
cuál es el criterio que se le ha dado para
tomarla) y, sobre todo, cuántos y qué datos
se han dado al computador”, reflexiona el
catedrático Pascual Campoy, del Centro de
Automática y Robótica de la Universidad
Politécnica de Madrid (UPM-CSIC).
Pascual Campoy
El robot andador Big Dog, de 90 cm. de longitud, puede
subir pendientes, y transportar hasta 150 kg de peso.
BOSTON DYNAMICS
Se puede prohibir el uso de los robots
asesinos pero, ¿es posible evitar que se
desarrollen? “Por supuesto, podría haber
países que lo hicieran pese a la prohibición,
aunque sufrirían las consecuencias. Es el
mismo caso que las armas químicas. Están
prohibidas y, pese a su uso ocasional, no
han sido desarrolladas totalmente o
empleadas como si no hubieran sido
prohibidas”, argumenta Peter Asaro.
No obstante, esta campaña para detener el
desarrollo de los robots asesinos, subraya, “no
pretende prohibir el desarrollo de sistemas
autónomos y robóticos más generales. Sólo
los que específicamente vayan a ser
diseñados como armas. Usando el mismo
ejemplo, no tememos que la prohibición de
las armas químicas y biológicas vaya a
impedir a los investigadores hacer ciencia
que ayude a la población en el campo de la
química y de la biología”, señala
nuevamente Asaro.
El experto en robótica Murray
Shanahan, asesor de la película de ciencia
ficción Ex Machina, sobre una máquina que
piensa y siente como un humano, es uno de
los grandes defensores de las ventajas que la
robótica avanzada aportará a nuestra
civilización. Frente a las advertencias de
científicos como Stephen Hawking o del
empresario espacial Elon Musk, que han
alertado sobre sus riesgos, Shanahan cree
que harán nuestra vida fácil. No obstante,
subraya que “el asunto es obviamente más
complejo y hay aspectos que merecen que
sean debatidos”.
Según explica, faltan décadas para que
se haga realidad ese escenario en el que las
máquinas puedan pensar como un
humano: “No sabemos cómo construir una
máquina así, de modo que es importante
aclarar que hablamos de riesgos a largo
plazo. Por otro lado, hay cuestiones más a
corto plazo sobre cómo usamos la
Inteligencia Artificial, y las aplicaciones
militares son una de ellas. No necesitamos
una máquina comparable a una persona
para que sea un arma totalmente autónoma,
capaz de tomar una decisión sin
intervención humana. Más difícil es
asegurar que esa decisión sería la misma
que tomaría una persona, que es la razón
por la cual, afortunadamente, esta vía
despierta tanto rechazo”, añade. “Sospecho
que será difícil detener el desarrollo de esta
tecnología porque ningún gobierno querrá
que su ejército esté en desventaja”.
Aunque numerosos científicos se han
mostrado en contra de los LAWS, de momento
sólo una empresa de armamento robótico, la
canadiense ClearPath Robotics, se ha
comprometido a no desarrollar estos sistemas
autónomos.
En Ginebra, entre el 13 y el 16 de mayo
de 2014, se desarrolló una reunión de expertos
sobre los sistemas de armas letales
autónomas, llamadas también “robots
asesinos”. El objetivo de esta reunión fue de
comprender los retos éticos, jurídicos y
operativos que implica el desarrollo de nuevas
tecnologías en el ámbito del armamento. La
capacidad del derecho internacional que existe
para enmarcar el posible uso de estos
sistemas de armas, que aún no son operativos,
fue el centro de estos retos.
La reunión estaba abierta no solamente
a los expertos y a los representantes de los
Estados, sino también a las ONG que podrán
expresar su punto de vista. Francia ya había
tomado la iniciativa, en 2013, cuando propuso
iniciar un debate sobre este asunto en el
marco de las reuniones de la convención sobre
algunas armas clásicas, instrumento esencial
en materia de desarme y que toma en cuenta
las necesidades de defensa y las
preocupaciones humanitarias.
Durante la jornada, el representante de
Ecuador, Luis Gallegos, señaló que la
comunidad internacional, los científicos,
expertos en computación y en inteligencia
artificial, no cuentan aún con respuestas sobre
cuestiones de vida o muerte relacionadas con
estos sistemas. “¿Cómo podrán las armas
autónomas distinguir entre un combatiente y
un civil?, ¿cómo podrán identificar mejor que
los soldados los objetivos militares?, ¿cómo
podrán distinguir entre los combatientes
activos y aquellos fuera de combate o que se
han rendido? ¿Cómo es posible garantizar que
las armas autónomas cumplan las normas y
principios fundamentales del derecho
internacional humanitario?”, señaló Gallegos.
El diplomático también cuestionó sobre quién
recaerá la responsabilidad legal si las armas
autónomas violan el derecho internacional
humanitario o cometen crímenes de guerra.
En el caso de Rusia, actualmente se
llevan a cabo pruebas de un nuevo vehículo
aéreo no tripulado de ataque que alcanza una
velocidad de hasta 800 kilómetros por hora,
informaron fuentes de la industria militar rusa.
Ahora se están llevando a cabo pruebas del
dron, que puede realizar funciones tanto de
inteligencia como de ataque. Además es capaz
de alcanzar una velocidad de hasta 800
kilómetros por hora. Las pruebas están por
concluir. Este dron tiene capacidad para llevar
una carga de hasta 250 kilogramos. Como
ejemplo comparativo, los drones asesinos MQ-
1 Predator de fabricación estadounidense
tienen capacidad para llevar una carga de 204
kilogramos y alcanzar una velocidad máxima
operativa de 217 kilómetros por hora. Por su
parte, el ministro de Defensa ruso, Serguéi
Shoigú, ha afirmado que el operativo
antiterrorista que Rusia lleva adelante en Siria,
ha demostrado que los vehículos aéreos no
tripulados son indispensables para las
operaciones de combate.
"Si en 2011 las fuerzas armadas [de Rusia]
contaban con tan solo 180 drones, en la
actualidad contamos con 1.720 vehículos
aéreos no tripulados modernos", explicó el
ministro.
Serguéi Shoigú
En la Reunión de Ginebra, Cuba
defendió la prohibición total y completa de las
armas autónomas letales, especialmente las
antipersonales, mediante un instrumento
jurídicamente vinculante. Claudia Pérez,
consejera de la Misión Permanente de Cuba
en Ginebra, expresó en la reunión de expertos
sobre el tema que debe trabajarse en una
definición internacionalmente acordada de
armas autónomas letales como aquellas
programadas por el hombre. Cuba considera
que en cualquier caso que se analice un futuro
marco regulatorio, el mismo no se debe centrar
únicamente en la autonomía sino también en la
letalidad. Mientras mayor sea la letalidad, más
estricto debería ser el marco que las regule,
recalcó Pérez. La funcionaria también recalcó
la preocupación de la mayor de las Antillas por
el uso de los drones debido a su nivel de
autonomía, razón por la que favorece la
adopción de un instrumento jurídicamente
vinculante que reglamente su uso. “Nos
preocupa el empleo de estos drones en
franca violación de la soberanía de los
Estados”, afirmó.
En tanto no exista este instrumento, su
utilización debe regirse por las normas
vigentes del Derecho Internacional y el
Derecho Internacional Humanitario y
cumplimentarlas estrictamente, subrayó.
Elon Musk y Stephen Hawking alertan sobre
‘robots asesinos’:
Científicos, investigadores y
académicos, entre ellos Elon Musk y Stephen
Hawking, han advertido que una carrera
armamentista de inteligencia artificial pronto
podría desarrollarse si no se toman medidas
preventivas.
Elon Musk.
Stephen Hawking
Una carrera mundial de armamento es
"virtualmente inevitable" si cualquiera de las
grandes potencias militares sigue adelante con
el desarrollo de armas de inteligencia
artificial (IA), advirtió el grupo en una carta
abierta presentada en la Conferencia
Internacional Conjunta de Inteligencia
Artificial en Buenos Aires. "Hay mucho en
juego" -dice la carta-, "Las armas autónomas
han sido descritas como la tercera
revolución en la guerra, después de la
pólvora y las armas nucleares."
Las armas autónomas (imaginemos
Terminators armados, vehículos
inteligentes con ametralladoras y drones
bombarderos) no son sólo cosa de ciencia
ficción.
Como señala la carta, algunos sistemas
de armas son "factibles dentro de unos
años, no décadas, no requieren materias
primas costosas o difíciles de obtener, por
lo que se volverán omnipresentes, todas las
potencias militares importantes podrán
producirlas en masa de forma barata", "Las
armas autónomas son ideales para tareas
tales como asesinatos, desestabilización de
naciones, represión de habitantes y
exterminio selectivo de un grupo étnico en
particular… Por lo tanto, creemos que una
carrera militar con armas de IA no sería
beneficiosa para la humanidad”, se señala
también en la carta.
Las guerras actuales de alta tecnología
se libran principalmente a través de máquinas
de control remoto. El ejército de Estados
Unidos tiene actualmente el vehículo MADSS,
un rover de 635 kilos que lleva equipo y
dispara con una ametralladora. También
cuenta con el Protector, un rover de 453
kilos que escanea en busca de bombas y
dispara una bazooka.
Northrop Grumman's (NOC) Mobile Armed Dismount
Support System (MADSS)
También cuentan con el sistema de "Phalanx
CIWS" usado por los buques de guerra
estadounidenses, que hace lo mismo que el
“Iron Dome” israelí, con un arma giratoria
Gattling. El sistema C-RAM hace lo mismo en
tierra usando un camión.
Sistema Automático Phalanx CIWS
En septiembre de 2015, mientras
Estados Unidos ataca con drones y aviones
teledirigidos al Estado Islámico en Irak y
Siria, en la ONU se debatía sobre qué tan
legal es el uso de estas tecnologías bélicas.
Un panel de expertos reunido en Ginebra
indagó sobre las graves violaciones a los
derechos humanos causadas por estos
artefactos y las herramientas que el derecho
internacional contempla para regular su uso y
garantizar que la llamada lucha contra el
terrorismo respete los estándares de derechos
humanos.
“Los Estados tienen el deber de
tomar medidas para proteger a los
individuos de actos terroristas, pero dichas
medidas deben respetar la legislación de
derechos humanos”, sentenció Flavia
Pansieri, la Alta Comisionada Adjunta de
derechos humanos de la ONU. El debate
surgió al saberse que en los últimos años
cientos de civiles en Pakistán han muerto en
operaciones antiterroristas dirigidas por
Estados Unidos mediante estos dispositivos.
Flavia Pansieri
Pansieri aseguró que el uso de drones
“ha creado una atmósfera de miedo en las
comunidades afectadas”, y que amenazan
no sólo el derecho a la vida, sino los derechos
a la educación, la religión, la libertad de
asociación y la salud; esto, pues “los
habitantes se abstienen de llevar a sus
hijos a la escuela, de reunirse en grupos o
de atender heridos por temor a ser
alcanzados por nuevos ataques de los
drones”, aseguró la alta funcionaria de la
ONU.
El defensor experto, Mirza Shahzad
Akbar, expuso casos concretos, como los
ataques de 2011 en una plaza pública en
Pakistán donde murieron 40 personas, el de
2006 a una mezquita donde perecieron 80
niños o el de 2009 en un funeral en el que
murieron otros 80; en ninguno de ellos se
encontraron terroristas entre las víctimas.
La justicia pakistaní ha contado 1449 víctimas
civiles en los últimos 5 años, cuyos familiares,
según Akbar, “no han recibido razones
sobre por qué atacaron sus familias, ni
disculpas ni reparación”.
Mirza Shahzad Akbar
Respecto al marco jurídico que debe
regular estas acciones, los expertos explicaron
que el Derecho Internacional Humanitario
(DIH), permite el uso de la fuerza letal contra
otra persona, sólo si esta supone una
amenaza inminente y si no hay otros medios
para neutralizarlo, como la captura o retención.
Sin embargo, el DIH sólo es vigente en el
contexto de un conflicto armado, por lo cual,
fuera de toda confrontación se debe aplicar el
derecho internacional de los derechos
humanos. El experto de la comisión
internacional de juristas, Alex Conte explicó
que, “muchos de los ataques cometidos por
Estados Unidos no se ejecutaron en el
marco de un conflicto armado, según los
criterios establecidos en las convenciones
de Ginebra y por lo tanto no se pueden
acoger al DIH”.
El experto indicó que, en ese caso, todo
operativo debería respetar los principios de
distinción entre combatientes y civiles y el
principio de proporcionalidad de los ataques.
No obstante, “los ataques con drones
borran todas las pistas sobre si estos
principios se cumplieron y la falta de
transparencia hace imposible la rendición
de cuentas. Esto otorga a los Estados una
virtual licencia para matar totalmente
inadmisible” aseguró Conte.
Los países latinoamericanos fueron
particularmente activos durante el debate.
Chile pidió la regulación de drones, “teniendo
en consideración que existe un aumento
exponencial de los Estados que buscan
adquirirlos”; Brasil indicó que “estas
muertes equivalen a ejecuciones arbitrarias
y extrajudiciales que están prohibidas por
el derecho internacional”; Ecuador declaró
“reprochar el uso de las aeronaves
utilizadas para servicios de inteligencia en
espacios extraterritoriales”, mientras que
Venezuela y Cuba rechazaron “las muertes
de las víctimas civiles a los que los
imperialistas llaman indignamente daños
colaterales”.
Por su parte, el mayor involucrado,
Estados Unidos, aseguró que sus
operaciones antiterroristas “tienen la mayor
transparencia posible consistente con las
exigencias de nuestra seguridad nacional”,
y que “tomamos muy seriamente todo los
reportes creíbles sobre civiles muertos o
heridos.” Y para finalizar declaró “seguir
creyendo que la mejor manera de lograr
nuestros objetivos humanitarios comunes
en el conflicto armado es creando un foro
que conduzca a compromisos serios y no
politizados”.
Estados europeos como Francia,
Reino Unido y Alemania se inclinaron por
afirmar que el “Consejo de Derechos
Humanos no es el foro más apropiado para
discutir el tema” y que se debería considerar
debatir en un foro sobre seguridad y
desarme. Mientras Organizaciones no
gubernamentales como Amnistía
Internacional declararon que “las muertes
ilegales por drones pueden equivaler a
crímenes de guerra” y así mismo que los
Estados concernidos deben “publicar la
identidad y cantidad de víctimas
asesinadas o heridas en dichas
operaciones”.
A modo de conclusión el relator para la
protección de los derechos humanos en la
lucha contra el terrorismo, Ben Emmerson,
dijo que más allá del marco legal, debe ser
claro que “son los drones los que se deben
adaptar a la ley y no la ley la que se adapte
a ellos”. El nutrido debate se llevó a cabo en
el Consejo de Derechos Humanos de la
ONU en Ginebra, con motivo de la celebración
de la 27 sesión regular de este organismo.
Ben Emmerson, relator para la protección de los derechos
humanos en la lucha contra el terrorismo.
Diferenciar Aliados de Contrarios:
Por ahora el obstáculo real para un uso
más amplio de lo que algunos llaman "robots
asesinos" es lograr que puedan distinguir
entre amigos y enemigos. "Un tanque es
bastante diferente a una camioneta, pero un
tanque enemigo y un tanque amigo pueden
verse bastante parecidos para una
máquina", dice el experto en Defensa del
Centro para una Nueva Seguridad
Americana, Paul Scharre. "Los militares no
querrán desplegar algo en el campo de
batalla que pueda accidentalmente volverse
en contra de sus propias fuerzas", añade.
Lo mismo piensa el general Larry
James, vicejefe de personal de inteligencia
de las Fuerzas Aéreas de EE.UU. "Estamos
muchos, muchos años, si no décadas, de
estar seguros que un sistema
de inteligencia artificial puede hacer ese
tipo de discriminación".
Mayor general Larry D. James.
A pesar de estas dificultades, el plan
del Departamento de Defensa para los
próximos 25 años publicado en el 2013
sostiene que "los sistemas no tripulados
siguen siendo muy promisorios para las
misiones de guerra del futuro". El plan
indica que, una vez que se superen las
dificultades técnicas, se pueden lograr rápidos
avances desconocidos hasta el momento. Se
estima que Washington gastará en la próxima
década en el mercado de vehículos aéreos
no tripulados (UAV’s por sus siglas en inglés)
tres veces más que China, el segundo gran
inversor en esta área.
ASPECTOS A CONSIDERAR:
Está claro que la creciente
automatización de armas llegará a un nivel de
desarrollo tal que, en algún punto, la
intervención humana quede descartada. Esta
posibilidad ya pasó hace tiempo el umbral de
la ciencia-ficción, como puede apreciarse en
los distintos ejemplos señalados en el presente
Manual.
Por ello, a partir de los aspectos éticos
y fundamentalmente en previsión al costo
humano potencial que la total automatización
de los sistemas de armas puede significar, es
una tarea impostergable para los delegados
presentes en este comité, diseñar un marco
regulatorio que atienda los ámbitos legales,
éticos y científicos asociados a los
Automatismos Letales, con miras a regular
desde ahora su producción y uso, así como a
generar un verdadero compromiso de parte de
las naciones aquí representadas para lograr su
efectivo cumplimiento.
En tal sentido y con estos fines,
deberán tomar en cuenta lo siguiente:
¿Las armas autónomas podrían
distinguir entre un combatiente y un
civil?
¿Su sofisticada tecnología las haría
mejores que los soldados a la hora
de identificar objetivos militares?
¿Quién sería responsable si violaran
el derecho internacional
humanitario?
¿Quién sería jurídicamente
responsable de la actuación de un
robot autónomo?
¿Es aceptable que una máquina
decida sobre la vida de una
persona?
¿Cómo podrán identificar mejor que
los soldados los objetivos militares?
¿Cómo podrán distinguir entre los
combatientes activos y aquellos
fuera de combate o que se han
rendido?
¿Cómo es posible garantizar que las
armas autónomas cumplan las
normas y principios fundamentales
del derecho internacional
humanitario?
¿Se debe restringir toda producción
de armas autónomas o puede
llegarse a un punto medio en el que
se establezca que deba mantenerse
en manos humanas las decisiones
finales?
¿Se debe exceptuar de la prohibición
las armas autónomas consideradas
defensivas?
¿Qué garantías existen para
asegurar que dichas armas no
tendrían fallos de funcionamiento
que generen costos en vidas
humanas?
¿Hay garantías de seguridad en
cuanto a que los sistemas de armas
automatizadas que son operadas a
distancia no sean susceptibles a
ataques cibernéticos que las pongan
en control de terroristas?
TÓPICO B:
APLICACIÓN DE MECANISMOS
INTEGRADOS PARA LA DETECCIÓN E
INUTILIZACIÓN DE ARMAS A DISTANCIA,
PARA IMPEDIR SU USO POR GRUPOS
TERRORISTAS E IRREGULARES.
El Presidente Barack Obama pidió a
principios de diciembre de 2015 al
Congreso, cerrar el vacío legal que permite
a potenciales terroristas tener acceso a la
compra de armas, en el marco del
último ataque en San Bernardino, California,
que dejó 14 muertos y 21 heridos. En su
mensaje semanal, Obama subrayó
la incongruencia de que en Estados Unidos la
gente incluida en la lista negra, que le prohíbe
viajar en avión, puede entrar a una tienda y
comprar armas de fuego. Recordó que
los asesinos en San Bernardino
utilizaron armas de asalto de tipo militar,
“armas de guerra” –dijo- para matar al
mayor número de personas posible.
“Es otro recordatorio trágico que
aquí en los Estados Unidos es demasiado
fácil para las personas peligrosas obtener
una arma de fuego”, subrayó. Obama reiteró
que aun cuando no se puedan evitar cada una
de las tragedias, la medida legislativa las
minimizaría, “no deberíamos facilitar a
potenciales terroristas poner en sus manos
un arma que pudieran usar en contra de los
estadunidenses”.
El grupo extremista Estado
Islámico (EI) reivindicó el atentado de San
Bernardino, California, que causó 14
muertos y 21 heridos, cuando 2 sujetos
armados se internaron en un centro de
servicios sociales para discapacitados.
"Dos seguidores del Estado Islámico
atacaron hace varios días un centro en San
Bernardino, en California", señaló la emisión
diaria de la cadena al-Bayan, una radio
afiliada al grupo yihadista. El EI reivindicó la
autoría del tiroteo en California en un agencia
de noticias vinculada a los yihadistas,
identificada como Aamaq news.
Syed Rizwan Farooq y Tashfeen Malik
La Oficina Federal de
Investigaciones (FBI) señaló que dada las
evidencias el incidente está siendo investigado
como "un acto terrorista". La mujer autora
del tiroteo, Tashfeen Malik, publicó con un
alias en la red social Facebook su apoyo al EI,
mientras que el jefe del FBI ya había
confirmado que tanto Malik como Syed
Farooq, el otro sospechoso, estaban en un
proceso de "radicalización". Tashfeen Malik,
la mujer de 27 años acusada de participar en
la muerte de 14 personas en San Bernardino,
California, juró lealtad con el
extremista Estado Islámico (EI) antes de
perpetrar la matanza, revelaron hoy
investigadores citados por medios
estadunidenses. Las fuentes, que no fueron
identificadas, indicaron que Malik declaró su
lealtad al líder del grupo terrorista, Abu Bakr al
Baghdadi, en un mensaje de su cuenta
personal de Facebook.
Por su parte, su esposo y cómplice de
la matanza, Syed Rizwan Farook,
borró archivos de su computadora un día antes
del ataque. Farook y su esposa Malik, los
presuntos autores del tiroteo, son investigados
para esclarecer sus motivaciones del asalto.
La FBI busca determinar si la pareja fue
“radicalizada” o si el ataque fue resultado de
un presunto desacuerdo de Farook durante la
fiesta de fin de año en ese centro, donde
trabajaba como inspector de salud.
El atentado en San Bernardino se une
al ocurrido en París, en el que yihadistas
utilizando armas de fuego atacaron a mansalva
a civiles desarmados.
La seguridad nacional es el tema
dominante después del cruento ataque en
Paris. Hay una gran preocupación de que haya
terroristas entre los refugiados sirios que están
por venir o que los agentes de ISIS puedan
penetrar por las fronteras. Por eso se
refuerzan los controles y medidas de
seguridad. Sin embargo, hay algo intocable y
es el “derecho” de los sospechosos de
terrorismo de armarse hasta los dientes. La
ley federal prohíbe que los convictos,
drogadictos, fugitivos y culpables de
abuso doméstico puedan adquirir armas.
Pero según un análisis de la Oficina de
Contraloría General (GAO) de 2010 “la
membresía en una organización terrorista
no le prohíbe a una persona tener armas de
fuego y explosivos, según la actual ley
federal”. Como resultado el GAO estimó que
entre 2004 y 2014, por lo menos en 2,233
ocasiones los sospechosos de tener lazos
con el terrorismo intentaron comprar
armas. En 2,043 casos (el 91%) lo hizo sin
problemas.
El Café “Bataclan”, donde hubo numerosas víctimas
durante los ataques de noviembre de 2015.
Se estima que hay 700 mil personas en
la lista de vigilancia, una cantidad que según
los críticos incluye a familiares y conocidos de
sospechosos. También es sabido que hay
nombres que no deberían de estar allí. Por
eso, la senadora Dianne Feinstein (D-CA) y
el congresista Peter King (R-NY) presentaron
este año la Ley para Negar Armas de Fuego
y Explosivos a los Terroristas Peligrosos de
2015. Allí se impedía la compra de armas a las
personas en la lista y creaba un proceso para
que un individuo pueda apelar para sacar su
nombre de allí. Pero la oposición de la
Asociación Nacional del Rifle (NRA) impidió
lo que era una medida más que razonable, que
equilibraba el interés de la seguridad con el
respeto a la Segunda Enmienda.
Senadora Dianne Feinstein
Representante Peter King.
La lógica perversa del NRA asegura
que todo control de armas, incluso si evita que
caigan en manos terroristas, es un ataque al
derecho de los estadounidenses y no impide
que los delincuentes las adquieran. Este
argumento es el que ha frenado pasadas
propuestas republicanas, demócratas y
bipartidistas cuyo fin principal era cerrar la
posibilidad de que sospechosos de lazos
terroristas compren armas. Esta es una
contradicción insostenible a la hora de
garantizar la seguridad pública.
Como muestra de la necesidad de
establecer mayores controles en cuanto al
acceso de armas, recientemente se ha logrado
descubrir el rastro de un arma vinculada a los
ataques terroristas de París del 13 de
noviembre, que conduce a un traficante de
armas de Florida implicado en el escándalo
Irán-Contra.
El número de serie de un fusil
semiautomático M92 (una copia modificada del
mítico AK-47 ruso) vinculado a los ataques
terroristas del 13 de noviembre, es igual al
de una arma entregada en mayo de 2013 por
la fábrica de armas serbia Zastava, a la
empresa de venta de armas Century
International Arms de Delray Beach, Florida,
según informaron los medios.
M92
Michael Sucher, el propietario de
Century Arms, no respondió a las llamadas de
los periodistas que revelaron el asunto ni a los
equipos de noticias de televisión que se
reunieron frente a su negocio. Los empleados
que abandonaban el edificio del traficante de
armas no hicieron comentarios sobre el caso.
Michael Sucher
La empresa Century Arms, compra y
vende excedentes de armas militares,
especializándose en la compra de armas
desde el extranjero, que revende a otros
vendedores de armas y es uno de los
mayores traficantes de armas en los EEUU.
La compañía también cuenta con una
licencia federal de armas de fuego en Georgia,
Vermont, para importar y construir armas e
importar dispositivos destructivos tales como
pistolas de gran calibre y munición
perforante. Documentos compartidos por
WikiLeaks en 2011, mostraron que Century
Arms había comercializado ilegalmente armas
de fuego con la ayuda de “intermediarios no
autorizados” El Centro para la Integridad
Pública informó ese mismo año que rifles
WASR-10 fabricados para Century Arms en
Rumania, se habían convertido en la compra
favorita de los cárteles mexicanos de la droga.
John Rugg, un ex oficial de policía y
empleado durante mucho tiempo en Century
Arms, testificó ante un comité del Senado de
Estados Unidos en 1987, que la empresa
había suministrado cohetes, granadas y
otras armas a la contra nicaragüense
apoyada por la CIA, como parte del
escándalo Irán-Contra.
La exportación de armas de fuego está
muy regulada, y los expertos en armas
sugieren que el arma pudo haber sido
transferida ilegalmente. Century Arms vende
a particulares u otras empresas con una
licencia de armas de fuego federal, y su página
web dirige el tráfico menor a una red de
distribuidores, pero no hay restricciones sobre
quién puede obtener esas licencias. El
propietario de la fábrica de armas Zastava en
Serbia, que fabricó el rifle y lo vendió a
Century Arms, ha negado que su compañía
vendiera armas a los terroristas.
Fábrica de armas Zastava, en Serbia
De hecho, es obvio que es Century
Arms el responsable de poner en juego esa
arma y es desde ahí desde donde se debe
investigar cómo llegó a manos de los
terroristas de Estado Islámico que mataron a
130 personas.
EL PROBLEMA DEL AK-47:
Los terroristas de París usaron una de
las armas de destrucción masiva más eficaces
jamás creadas: el Avtomat Kalashnikova
modelo 47, una herramienta de muerte que
simboliza el Mal con mayúsculas
De todas las armas del vasto arsenal
soviético, nada más rentable que el Avtomat
Kalashnikova modelo 1947, más conocido
como AK-47 o kalashnikov. Es el fusil de
asalto más popular del planeta, un arma que
adoran todos los combatientes. Cuatro kilos de
amalgama elegante y simple de acero forjado y
madera que no se rompe, no se atasca ni se
recalienta. Dispara cubierto de barro o lleno de
arena.
Pesa apenas cuatro kilos sin munición,
mide 87 centímetros, lleva 30 balas en su
característico cargador curvado y se ha
convertido en un símbolo de nuestro tiempo
hasta tal punto que aparece en monedas
(URSS) y banderas (Mozambique), se hacen
versiones chapadas en oro para dictadores y
narcotraficantes, y para simbolizar la paz se
reconvierten en guitarras. Un niño puede
aprender a desensamblarlo y ensamblarlo en
30 segundos, y a usarlo en muy poco más; sin
su simplicidad, sería imposible el fenómeno de
los niños-soldados, y su apodo, “Kalash”, se
ha convertido en nombre común en ciertos
países africanos.
Se cree que ha provocado más muertes
desde su creación que la artillería, los ataques
aéreos y los cohetes a razón de unos
estimados 250.000 muertos al año. Su
construcción es simple, lo cual lo hace
relativamente barato; unos 530 dólares en
2005, aunque en África se puede encontrar
por 300 con facilidad. Un herrero puede
repararlo, e incluso fabricarlo. Y es tan
eficiente en su funcionamiento y la
munición tan sencilla de encontrar que,
contando descendientes, versiones e
imitaciones, se han fabricado entre 80 y 100
millones de ejemplares (de la familia M-16,
el segundo en números, hay unos 10
millones).
Es básicamente indestructible, el arma
favorita de rebeldes, revolucionarios y
asesinos, su forma característica es una
declaración de intenciones y una amenaza; en
sus vídeos, Osama Bin Laden siempre tenía
uno en el encuadre. Vivimos en la era del AK-
47, y posiblemente padeceremos su existencia
durante décadas, como desgraciadamente
demuestran los atentados de París.
Soldado albano con un AK-47. (Corbis)
En 1949 fue adoptado como arma del
Ejército soviético, que durante la guerra
había equipado a divisiones enteras con
subfusiles al descubrir la efectividad de su
volumen de fuego en combates a corta
distancia. El AK-47 supuso una revolución en
las tácticas de infantería, al proporcionar a un
soldado sin entrenamiento especial un arma
capaz de cubrir varios papeles en el campo de
batalla. En conjunción con ametralladoras
ligeras como la RPK, le da al pelotón de
infantería un equipo de armas automáticas
compatibles que usan la misma munición e
incluso partes intercambiables, y un volumen
de fuego sin precedentes. Para colmo, su
diseño había tenido en cuenta las duras
lecciones de la Segunda Guerra Mundial; el
fusil se hizo prácticamente indestructible,
capaz de operar en cualquier clima extremo
(frío, calor, humedad, sequedad) sin
problemas.
El punto fuerte del AK-47 nunca ha sido
el agrupamiento de impactos o la exactitud de
su calibración: se diseñó para proporcionar
gran volumen de fuego con gran fiabilidad, a
precio económico y con soldados poco
entrenados. Y cumplió sus objetivos de modo
más que sobresaliente.
Bajo Stalin y sus sucesores, la Unión
Soviética no solo equipó a sus fuerzas
armadas con diversas variantes del AK-47,
sino que lo exportó por millones a aliados y
regímenes satélites. Algunos de ellos pusieron
en marcha sus propias factorías y elaboraron
copias, versiones o derivados como el Tipo 56
chino, el Tipo 58 norcoreano, el MPiK de
Alemania del Este, el PMKM polaco, el AMD
húngaro, el Tabuk iraquí, el M70 yugoslavo,
el Misr egipcio o las versiones soviéticas
posteriores de calibre 5,56 como el AK-74.
UN ARMA CONVERTIDA EN ICONO
Más de 14 países elaboraron estas
copias más o menos autorizadas y más o
menos idénticas, pero otros muchos países se
inspiraron en el clásico kalashnikov al
desarrollar sus propias armas, como el RK-
62 finlandés, del que a su vez surgió
el Galil israelí. Se estima que hasta un millón
de derivados se fabrican todavía cada año. Es
el arma ligera más fabricada de la historia, con
entre 70 y 100 millones de ejemplares
construidos; el arma más reconocible, debido a
su inconfundible perfil. Y para bien o para mal,
uno de los objetos más icónicos de nuestra
época.
Un niño mira a un militar palestino en Gaza.
El contrabando y la provisión de armas
a gobiernos aliados o a guerrillas más o menos
simpáticas de diversos países han acabado
provocando mezcolanzas difíciles de seguir:
armas chinas o fabricadas en Corea del
Norte que acaban en manos de guerrillas
africanas tras combatir en los Balcanes, o
armas rumanas que acaban en manos de
bandas mexicanas tras haber sido vendidas a
gobiernos legítimos de Sudamérica. Aparece
en manos de guerrilleros palestinos, de
ejércitos tribales africanos, de mafias
mexicanas (donde es conocido como 'cuerno
de chivo') o de policías indios.
Solo en los Balcanes se calcula que
hay entre uno y dos millones de ejemplares
en manos de civiles, de entre 3,6 y 6,2
millones de armas de fuego en manos de
entre medio millón y 1,6 millones de
hogares. Es un éxito incluso en el competitivo
mercado de armas de EEUU, no tanto por su
calidad sino por el aura de archienemigo y su
más que probada robustez, aunque allí se
vende legalmente en su versión
semiautomática. En Siria e Irak, sigue siendo
una de las armas más usadas por todos los
combatientes.
Y esta es la razón de que el AK-47 esté
apareciendo en el mercado negro europeo con
inquietante normalidad: simplemente hay
demasiados de ellos en circulación. Tras la
caída de la Unión Soviética y la
descomposición del Pacto de Varsovia,
millones de ejemplares almacenados durante
la Guerra Fría fueron vendidos por gobiernos
que querían hacer caja o por mafias.
Más recientemente, la decisión rusa de
reequipar sus fuerzas armadas con armamento
más moderno ha vuelto a movilizar los
arsenales y liberado más ejemplares todavía.
Entre el hampa de Marsella o París se está
repitiendo el fenómeno que ocurriera hace
años en México y los EEUU: si no estás
equipado con un kalashnikov, no eres nadie,
no tanto por su declarada potencia destructiva
cuanto por su valor icónico.
Aunque en los países de la Europa
Occidental este tipo de armas estén
rigurosamente prohibidas y su tráfico sea
severamente castigado, su capacidad
destructiva y proyección mediática los hacen
demasiado deseables y su abundancia
demasiado disponibles como para que se
pueda cortar por completo su tráfico. El AK-47
es un problema que debe ser atendido y
resuelto en el marco de una política de
combate al tráfico de armas que
necesariamente debe incluirlo.
Ahora bien, el problema de las armas y
su trasiego a grupos irregulares no es de
reciente data. Se ha discutido en este comité
en el pasado, así como en otros foros de
Naciones Unidas, sin que a la fecha se haya
logrado aplicar mecanismos que sean
verdaderamente efectivos al momento de
impedir este tráfico, que además genera
enorme inestabilidad social, política y
económica en numerosas naciones.
Las consecuencias del tráfico de armas
son conocidas -cuando no padecidas- por las
naciones representadas en este comité, la
urgencia de la situación, dado el auge que está
tomando el terrorismo fundamentalista, hace
impostergable la búsqueda de soluciones
prácticas.
En tal sentido, las delegaciones
deberán llegar a acuerdos para definir el
diseño y características de un mecanismo
que sirva para hacer el monitoreo satelital
de toda arma que se fabrique, sea corta,
larga, automática o no. Dicho mecanismo
deberá estar integrado al arma de una
forma tal que no pueda ser anulado ni
retirado sin destruir el arma propiamente.
De igual manera, deberán estudiar la
inclusión en el diseño de las armas
mencionadas de un mecanismo que las
inutilice a distancia, si se ubican en un sitio
distinto al que hayan sido destinadas.
ASPECTOS A CONSIDERAR:
Para llevar a buen término la cuestión,
los delegados deben tomar en cuenta lo
siguiente:
¿Es viable técnicamente colocar un
mecanismo de localización en un
arma?
¿Se debe informar de la existencia
de dicho mecanismo al consumidor
final o al intermediario?
¿Ocultar esa información podría
constituir una violación a los
derechos humanos?
¿Se dispone de suficiente rango de
observación satelital como para que
no haya armas que queden fuera de
observación y por ende no puedan
ser ubicadas?
¿Qué elementos motivarían la
inutilización a distancia de un arma?
¿Las naciones productoras de armas
estarían dispuestas a
comprometerse con la puesta en
práctica de esta medida en caso de
ser aprobada?
Atendiendo el problema endémico
que supone el fusil AK-47 ¿Los
países presentes se comprometerían
al cese inmediato de su producción
y a no reanudarla en el futuro, así
como al establecimiento de políticas
de incautación y destrucción de
dichas armas?
¿En qué proporción se establecería
la contribución al desarrollo de los
mecanismos aquí expuestos en caso
de ser aprobados?
¿Cuáles países se comprometerían a
aportar la tecnología y los equipos
necesarios para el desarrollo y
producción de estos mecanismos de
detección e inutilización?
REFERENCIAS
http://icip.gencat.cat/web/.content/continguts/p
ublicacions/arxius_icip_research/ICIP_RESEA
RCH-4_WEB.pdf
http://www.cedih.sld.cu/Las%20armas%20auto
nomas%20y%20el%20DIH.pdf
https://www.fuhem.es/media/cdv/file/biblioteca/
Boletin_ECOS/29/nuevas-formas-de-guerra-y-
control_T_FONT.pdf
http://www.eldiario.es/catalunya/adios_a_las_a
rmas/Armas-roboticas-nuevo-Derechos-
Humanos_6_376972331.html
http://www.vertigopolitico.com/articulo/36745/O
bama-pide-no-poner-armas-de-fuego-en-
manos-de-terroristas
http://www.vertigopolitico.com/articulo/36744/E
stado-Islamico-perpetro-masacre-en-San-
Bernardino
http://www.vertigopolitico.com/articulo/36716/A
gresora-de-San-Bernardino-juro-lealtad-a-ISIS-
revelan
http://www.laopinion.com/2015/11/17/armamen
to-para-terroristas/
http://elrobotpescador.com/2015/12/16/el-
rastro-de-una-arma-utilizada-en-los-ataques-
terroristas-de-paris-conduce-a-un-traficante-
de-eeuu/
http://www.rawstory.com/2015/12/gun-linked-
to-paris-attacks-traced-back-to-florida-arms-
dealer-implicated-in-iran-contra-scandal/
http://diariocorreo.pe/ciudad/reggiardo-70-de-
armas-de-fuego-usadas-por-delincuentes-y-
terroristas-serian-de-ff-aa-588874/
http://www.elconfidencial.com/tecnologia/2015-
11-20/por-que-el-ak-47-es-el-fusil-mas-
utilizado-por-los-terroristas_1102073/
http://www.un.org/spanish/News/story.asp?Ne
wsID=32226#.Vpqd6tKG98E
http://www.elfinanciero.com.mx/mundo/onu-
condena-uso-de-drones-en-guerra-contra-el-
terrorismo.html
https://en.wikipedia.org/wiki/Northrop_Grumma
n_X-47B
https://www.icrc.org/spa/resources/documents/f
aq/q-and-a-autonomous-weapons.htm
http://elcomercio.pe/mundo/actualidad/papelon
-sofisticado-tanque-ruso-armata-t-14-noticia-
1809527
http://panorama.ridh.org/el-uso-de-drones-
debe-adaptarse-a-la-ley-y-no-la-ley-a-los-
drones-experto-de-la-onu/
https://www.icrc.org/spa/war-and-
law/contemporary-challenges-for-ihl/ihl-new-
technologies/index.jsp
http://www.elmundo.es/ciencia/2015/04/14/552
c14fc22601d9a498b4577.html
http://www.diplomatie.gouv.fr/es/asuntos-
globales/desarme-y-control-de-
armas/eventos/article/desarme-reunion-sobre-
los-sistemas
http://www.un.org/spanish/News/story.asp?Ne
wsID=29434#.Vm5oV9KG98E
https://actualidad.rt.com/actualidad/187250-
taranis-drone-secreto-mundo
https://actualidad.rt.com/actualidad/193994-
rusia-moderno-dron-ataque
http://www.acnu.org.cu/articulos/cuba-
defiende-en-onu-prohibicion-de-armas-
autonomas-letales
http://www.cnnexpansion.com/tecnologia/2015/
07/28/elon-musk-y-stephen-hawking-alertan-
sobre-robots-asesinos
http://www.clarin.com/mundo/Cumbre-ONU-
Ginebra-robots-asesinos-sistemas-armas-
autonomas-letales_0_1336066637.html