Con la ayuda de Derek Robertson
Reps. Seth Moulton cree que los robots asesinos podría estar aquí… hoy.
Y, no mucho más adelante en el futuro, podrían reemplazar a los soldados reales en el campo de batalla, razón por la cual el demócrata de Massachusetts está peleando con el Pentágono al respecto.
En su opinión, el Departamento de Defensa no ha «hecho mucho» para abordar las preocupaciones sobre el papel que la inteligencia artificial podría desempeñar en el ejército en el futuro, dijo a Digital Future Daily en una entrevista después de su artículo de opinión en el Boston Globe el miércoles advirtiendo del peligro inminente que la tecnología representa para la humanidad.
Comparó la amenaza con las armas nucleares y advirtió que Estados Unidos ha estado cediendo terreno a sus rivales extranjeros. Desde su punto de vista en el Comité de Servicios Armados de la Cámara de Representantes, y como una de las principales voces demócratas en asuntos militares, las fuerzas armadas del Pentágono deben hacer más ahora.
Vale la pena señalar que el Departamento de Defensa actualizó recientemente su directiva de armas autónomas para seguir el departamento Política de Principios Éticos de AIy oficiales militares han dijo repetidamente que siempre habrá un «humano en el circuito» cuando se trata de armas autónomas que matan personas.
Pero Moulton piensa que eso no es suficiente. Para empezar, el Departamento de Defensa debe predicar con el ejemplo y establecer reglas éticas para evitar atrocidades automatizadas o no intencionadas en futuros campos de batalla, y capitalizar las enormes reservas de datos de las fuerzas armadas para hacer avanzar la inteligencia artificial, dijo.
Hablamos con el legislador sobre sus temores y esperanzas para el futuro, y cómo cree que el Congreso debería responder para garantizar que todos sigamos viviendo y respirando cuando los robots asesinos se hagan realidad. Nuestra entrevista ha sido editada para mayor claridad y brevedad.
Ha dicho que el Pentágono no está prestando suficiente atención a las posibles amenazas de la IA en situaciones militares. ¿Qué ha hecho mal el Departamento de Defensa y qué pueden mejorar?
No creo que hayan hecho mucho de nada. Hablé con dos jefes de servicio la semana pasada y ambos dijeron que el Pentágono está muy atrasado en esto. No tienen ninguna dirección, ninguna guía… El Pentágono es una empresa de 760.000 millones de dólares y, en este momento, estamos gastando la mitad de lo que gasta China en inteligencia artificial como porcentaje de nuestro plan de defensa.
Usted es el primer legislador al que escuché hacer la comparación directa de que la IA es una amenaza comparable a las armas nucleares. ¿Qué te hizo sacar esa conclusión? por qué no todos enloqueciendo por esto?
De hecho, creo que hay mucha gente que se está volviendo loca. Lo que nos diferencia de la era nuclear es que tan pronto como desarrollamos armas nucleares, hubo un esfuerzo masivo para reducir su uso.
Fue dirigido principalmente por muchos de los científicos que desarrollaron esta tecnología en primer lugar y reconocieron lo peligrosa que era para la humanidad, y resultó en un esfuerzo internacional para limitar las armas nucleares y limitar su proliferación. simplemente no lo he visto nada comparable a eso con IA.
Esto es mucho más peligroso. China está invirtiendo enormes recursos en IA. Putin ha salido y ha dicho que quien gane la carrera de la IA controlará el mundo. Todos nuestros adversarios serios están en una carrera competitiva real con nosotros en IA, por lo que estamos perdiendo la influencia para ayudar a establecer estos estándares internacionales.
¿Qué tan plausible es una «Convención de Ginebra sobre IA», como usted pidió en el artículo de opinión?
Creo que es plausible porque creo que todos reconocen fundamentalmente el riesgo. Es fácil ser un cínico aquí y decir, bueno, estamos en guerra con Rusia en una guerra de poder y las tensiones están aumentando con China, pero no olvidemos que tuvimos muchos acuerdos de armas nucleares durante la Guerra Fría. Los Convenios de Ginebra se negociaron con muchas tensiones en el mundo. Creo que esto es difícil, pero vale la pena intentarlo.
También dijiste que no estamos lejos de ver robots asesinos en uso. ¿Qué tan lejos estamos?
Creo que podríamos producirlos hoy, si realmente quisiéramos. La pregunta es cómo se ve un robot asesino, ¿verdad? Si solo está hablando de drones autónomos, básicamente ya tenemos esa tecnología y nos estamos desarrollando muy rápidamente en enjambres e incluso formas más sofisticadas. Si está hablando de robots asesinos que reemplazan a un hombre de infantería, probablemente todavía falten cinco o diez años, pero no faltan décadas.
La calidad de los datos es una parte importante para pasar a la IA de forma rápida y segura. ¿Qué piensa sobre el sistema de clasificación de datos de las fuerzas armadas?
Estados Unidos recopila más datos de sensores militares que cualquier otro país del mundo. Y eliminamos más datos que cualquier otro país del mundo, simplemente porque no tenemos el lugar para almacenarlos.
Entonces, parte de esto es bastante simple. Solo necesitamos desarrollar la capacidad de almacenamiento para todos los datos de los sensores que recopilamos regularmente. Gracias a Dios, teníamos los datos del radar para ayudarnos a identificar esos globos que habían sobrevolado desde China. Miramos hacia atrás en Big Data para encontrar eso. Muchos de esos datos se eliminan todos los días.
¿Hay algo en particular que esté buscando con respecto a la IA en la Ley de Autorización de Defensa Nacional?
Bueno, hay filosofías en competencia sobre cómo lidiar con esto. Una de las conversaciones que tendré con [Rep. Rob Wittman, R-Va., vice chairman of the House Armed Services Committee] es que me gusta la idea de empezar a pensar en IA, pero no quiero montar una oficina que inmediatamente ejerza tanto control sobre los servicios. En una audiencia pública, alenté a los jefes a utilizar rápidamente la IA y resolver esto. El secretario del Pentágono no va a liderar esto. Así que deberías hacerlo tú mismo. Al igual que el Cuerpo de Marines desarrolló de forma independiente una estrategia para el Pacífico y ahora todos los demás están tratando de ponerse al día.
A estas alturas probablemente hayas oído hablar de lo que es un debacle técnica gobernador de florida Se lanzó la campaña presidencial de Ron DeSantis.
Pero hay una razón por la que DeSantis estaba en condiciones de romper los servidores de Twitter en primer lugar, y apunta a un futuro potencial para el tecno-libertarismo antisistema eso ha estado burbujeando bajo la superficie de la política estadounidense. Ben Schreckinger de DFD informó ayer por la mañana sobre cómo el gobernador de Florida decidió unirse a ese campo, vinculándose con figuras como Elon Musk y el capitalista de riesgo David Sacks por su afinidad compartida por la guerra cultural conservadora que DeSantis ha estado librando sin descanso.
«Al anunciar su carrera con los dos magnates en Twitter Spaces, DeSantis está apostando a que sus seguidores ultra ricos serán útiles no solo para escribir cheques, sino también para enmarcar su campaña para el consumo público», escribe Ben, pero no todos son tan optimistas. volará con los votantes de las primarias republicanas.
«¿Va a ser su problema o va a ser el show de Twitter?» Rollins le preguntó a Ben. «Tienes que ganar Iowa. Tienes que ganar New Hampshire, y ahí es donde debes pasar mucho tiempo”. A juzgar por cómo fue realmente el lanzamiento de la campaña, es un consejo no solicitado que DeSantis podría tomar a regañadientes. – derek robertson
Mientras Washington vacila sobre cómo abordar la regulación de la IA, la industria privada está proponiendo sus propias reglas e invitando a los legisladores a sentarse a la mesa para discutirlas.
Mohar Chatterjee y Brendan Bordelon de POLITICO informe esta tarde en los esfuerzos de los principales directores ejecutivos de tecnología para obtener sus propias reglas preferidas frente a los legisladores de todo el mundo. Brad Smith de Microsoft dio a conocer esta mañana un plan de cinco puntos para regular la IA que se centró en la seguridad y la concesión de licencias para los modelos, mientras que Sundar Pichai de Google y Sam Altman de OpenAI están en un bombardeo similar en Europa.
Pero como señalan Mohar y Brendan, los líderes tecnológicos no están exactamente ansiosos por ser vistos como líderes del proceso. «Ni siquiera estoy seguro de que estemos en el auto», dijo Smith. «Pero ofrecemos puntos de vista y direcciones sugeridas para aquellos que realmente están conduciendo».
La propuesta de licencia de Microsoft representaría un cambio radical en la forma en que opera el campo actualmente no regulado. Que es exactamente lo que tiene de malo, a los ojos de los críticos: algunos Los principales investigadores de IA creen que alejaría efectivamente la escalera de los desarrolladores de IA más pequeños ahora que los grandes jugadores tecnológicos han establecido su primera posición. – derek robertson
Mantente en contacto con todo el equipo: ben schreckinger ([email protected]); derek robertson ([email protected]); Mohar Chatterjee ([email protected]); steve heuser ([email protected]); y benton ives ([email protected]). Síganos @FuturoDigital en Twitter.
Si le han reenviado este boletín, puede inscribirse y leer nuestra declaración de misión en los enlaces proporcionados.