Difusión estable
El jueves, el presidente de Microsoft, Brad Smith, anunció que su mayor temor sobre la IA gira en torno a la creciente preocupación por falsificaciones profundas y medios sintéticos diseñados para engañar, Informes de Reuters.
Smith hizo sus comentarios mientras revelaba su «Plano para la gobernanza pública de la IA» en un discurso en planeta mundo, un museo de artes del lenguaje en Washington, DC. Sus preocupaciones surgen cuando hablar de regulaciones de IA es cada vez más común, provocado en gran parte por la popularidad de ChatGPT de OpenAI y un gira politica por el CEO de OpenAI, Sam Altman.
Smith expresó su deseo de urgencia al formular formas de diferenciar entre fotos o videos genuinos y los creados por IA cuando podrían usarse para propósitos ilícitosespecialmente al permitir la desinformación desestabilizadora de la sociedad.
«Vamos a tener que abordar los problemas relacionados con las falsificaciones profundas. Vamos a tener que abordar en particular lo que nos preocupa de la mayoría de las operaciones de influencia cibernética extranjera, el tipo de actividades que ya están realizando el gobierno ruso, el chino , los iraníes», dijo Smith, según Reuters. «Necesitamos tomar medidas para protegernos contra la alteración de contenido legítimo con la intención de engañar o defraudar a las personas mediante el uso de IA».
Smith también impulsó la introducción de licencias para formas críticas de IA, argumentando que estas licencias deberían tener obligaciones para proteger contra amenazas a la seguridad, ya sea física, cibernética o nacional. “Necesitaremos una nueva generación de controles de exportación, al menos la evolución de los controles de exportación que tenemos, para garantizar que estos modelos no sean robados o utilizados de manera que violen los requisitos de control de exportación del país”, dijo.
La semana pasada, Altman apareció en el Senado de los EE. UU. y expresó su preocupación por la IA, diciendo que la industria naciente necesita ser regulada. Altman, cuya empresa OpenAI está respaldada por Microsoft, abogó por la cooperación global en IA y los incentivos para el cumplimiento de la seguridad.
En su discurso del jueves, Smith se hizo eco de estos sentimientos e insistió en que las personas deben rendir cuentas por los problemas causados por la IA. Instó a que se pongan medidas de seguridad en los sistemas de inteligencia artificial que controlan la infraestructura crítica, como la red eléctrica y el suministro de agua, para garantizar la supervisión humana.
En un esfuerzo por mantener la transparencia en torno a las tecnologías de IA, Smith instó a los desarrolladores a desarrollar un sistema de estilo «conozca a su cliente» para vigilar de cerca cómo se utilizan las tecnologías de IA e informar al público sobre el contenido creado por IA, lo que facilita la identificar contenido fabricado. En esta línea, empresas como Adobe, Googley Microsoft están trabajando en formas de filigrana o etiquetar de otro modo el contenido generado por IA.
Deepfakes ha sido objeto de investigación en Microsoft durante años. En septiembre, el director científico de Microsoft, Eric Horvitz escribió un trabajo de investigación sobre los peligros tanto de los deepfakes interactivos como de la creación de historias sintéticas, temas también tratados en un artículo 2020 en FastCompany por este autor, que también mencionó esfuerzos anteriores de Microsoft para detectar falsificaciones profundas.
Mientras tanto, Microsoft es simultáneamente presionando para incluir texto– y tecnología de inteligencia artificial generativa basada en imágenes en sus productos, incluidos Office y Windows. Es lanzamiento brusco de un chatbot de Bing no condicionado y no probado (basado en una versión de GPT-4) impulsado en febrero reacciones profundamente emocionales de sus usuarios. También miedos latentes reavivados que la superinteligencia que domina el mundo puede estar a la vuelta de la esquina, una reacción a eso algunos críticos afirman es parte de una campaña de marketing consciente de los proveedores de IA.
Entonces, la pregunta sigue siendo: ¿Qué significa cuando compañías como Microsoft están vendiendo el mismo producto del que nos advierten?