Quen está a traballar para acabar coa ameaza dos deepfakes xerados pola IA?

As imaxes de arriba de Trevor Noah e Michael Costa mostran o que ocorre cando se combinan con "dous homes bailando de salón" a través dun xerador de imaxes de intelixencia artificial, así como a imaxe modificada para rexeitar a manipulación da imaxe da intelixencia artificial Si ou Non. Imaxe: Alexander Madry

Do mesmo xeito que moitas das mellores e peores ideas do mundo, o plan dos investigadores do MIT para combater os deepfakes xerados pola IA naceu cando un deles viu o seu programa de noticias non tan noticiario favorito.

Tráiler do anuncio de Star Wars: Shatterpoint

02:27

Primeiras cousas que facer en VR, parte 3

mañá ás 9:39 h

No episodio do 25 de outubro de The Daily Show con Trevor Noah, a directora de tecnoloxía de OpenAI, Mira Murati, fala de imaxes xeradas pola intelixencia artificial. Aínda que podería falar sobre o xerador de imaxes AI de OpenAI DALL-E 2, non foi unha entrevista moi en profundidade. Finalmente publicouse a todos os que entenden pouco ou nada da arte da IA. Aínda así, ofreceu algunhas pebidas de pensamento. Noah pregunta a Murati se hai algún xeito de garantir que os programas de IA non nos leven a un mundo "onde nada é real e todo o que é real non o é?"

A semana pasada, os investigadores do Instituto Tecnolóxico de Massachusetts dixeron que querían responder a esa pregunta. Elaboraron un programa relativamente sinxelo que podería usar técnicas de envelenamento de datos para perturbar esencialmente os píxeles dunha imaxe para producir ruído invisible, creando de forma efectiva un xerador de arte de IA baseado nas fotos que alimentaron. Pero non pode xerar deepfakes realistas. Alexander Madry, profesor de informática no MIT, traballou co equipo de investigadores para desenvolver o programa e publicou os seus resultados en Twitter e no blog do seu laboratorio.

Usando fotos de Noah co cómico do Daily Show Michael Costa, mostrou como este ruído imperceptible na imaxe dificulta que un xerador de imaxes de IA de modelo de difusión xere unha nova imaxe usando o modelo orixinal. Os investigadores propuxeron que calquera persoa que planea cargar unha imaxe a Internet podería executar a súa foto a través do seu programa, basicamente inmunizándoa contra un xerador de imaxes de intelixencia artificial.

G/O Media pode recibir comisións

*zumbido de sable de luz*

Sabre Pro

Para o fan de Star Wars con todo.
Estes sabres de luz, alimentados por Neopixels, funcionan dentro de tiras LED en forma de lámina que permiten cores axustables, son interactivo e efectos de animación cambiantes mentres se xogan en duelo.

Hadi Salman, un estudante de doutoramento do MIT cuxo traballo xira en torno a modelos de aprendizaxe automática, dixo a Gizmodo nunha entrevista telefónica que o sistema que axudou a desenvolver só tardou uns segundos en introducir ruído nunha foto. Toma. As imaxes de maior resolución funcionan aínda mellor, dixo, porque inclúen máis píxeles que poden ser perturbados con sutilezas.

Google está a construír o seu propio xerador de imaxes de intelixencia artificial chamado Imagen, aínda que poucas persoas foron capaces de poñer o seu sistema en práctica. A compañía tamén está a traballar nun sistema de vídeo AI xerativo. Salman dixo que non probara o seu sistema en vídeo, pero que en teoría aínda debería funcionar, aínda que o programa do MIT tería que simular cada fotograma dun vídeo individualmente, o que é o mesmo que calquera vídeo. pode ser máis longo que miles de cadros. uns minutos.

Pódese aplicar a intoxicación de datos aos xeradores de IA a gran escala?

Salman dixo que pode imaxinar un futuro onde as empresas, incluso as que fabrican modelos de IA, poidan certificar que as imaxes cargadas están inmunizadas contra os modelos de IA. Por suposto, esta non é unha gran noticia para os millóns de imaxes que xa se cargaron nunha biblioteca de código aberto como LAION, pero podería marcar a diferenza para calquera imaxe cargada no futuro.

Madry tamén dixo a Gizmodo por teléfono que este sistema, aínda que a súa toxicidade de datos funcionou en moitas das súas probas, é máis unha proba de concepto que calquera tipo de lanzamento de produto. O programa dos investigadores demostra que hai formas de derrotar os deepfakes antes de que sucedan.

Dito isto, as empresas deben coñecer esta tecnoloxía e implementala nos seus sistemas para facelo aínda máis resistente á manipulación. Ademais, as empresas deberán asegurarse de que a futura representación dos seus modelos de difusión, ou calquera outro tipo de xerador de imaxes de intelixencia artificial, non poderá ignorar o ruído e xerar novos deepfakes.

Arriba á esquerda está a imaxe orixinal con Trevor Noah e Michael Costa. Na parte superior dereita hai unha imaxe creada mediante un xerador de imaxes de intelixencia artificial, e na parte inferior dereita está o que pasou cando os investigadores de intelixencia artificial intentaron o mesmo, pero introduciron un ruído imperceptible na imaxe orixinal. Foto: MIT/Alexander Madry/Gizmodo

"O que realmente ten que pasar para avanzar é que todas as empresas que desenvolven modelos de proliferación deben proporcionar a capacidade de ter vacinacións saudables e robustas", dixo Madry.

Outros expertos no campo da aprendizaxe automática atoparon algún punto para criticar aos investigadores do MIT.

Florian Trammer, profesor de Informática da ETH Zurich en Suíza, tuiteou. Esa gran dificultade é que esencialmente tentas enganar todos os intentos futuros de facer un deepfake cunha imaxe. Trammer foi coautor dun artigo de 2021 publicado pola Conferencia Internacional sobre Representación da Aprendizaxe, que esencialmente descubriu que o envelenamento de datos, como fai o sistema do MIT co ruído de imaxe, obriga aos futuros sistemas a buscar formas de evitalo. non parará. Ademais, a creación destes sistemas de envelenamento de datos levaría a unha "carreira armamentística" entre os xeradores de imaxes comerciais de IA e os que intentan deter as falsificacións profundas.

Existen outros programas de intoxicación de datos para abordar a vixilancia baseada na IA, como Fox (si, como o 5 de novembro), que foi desenvolvido por investigadores da Universidade de Chicago. Fox distorsiona os píxeles das imaxes de tal xeito que impiden que empresas como Clearview logren un recoñecemento facial preciso. Outros investigadores da Universidade de Melbourne en Australia e da Universidade de Pequín en China tamén analizaron sistemas potenciais que poderían crear "exemplos sen educación" que os xeradores de imaxes de IA non poden usar.

O problema é que, como sinalou a desenvolvedora de Fox Emily Wenger nunha entrevista co MIT Technology Review, programas como Microsoft Azure conseguiron vencer a Fox e detectar caras a pesar das súas técnicas adversarias.

Gautam Kamath, profesor de ciencias da computación da Universidade de Waterloo en Onatrio, Canadá, dixo a Gizmodo nunha entrevista de Zoom que nun "xogo do gato e do rato" entre os que intentan construír modelos de IA e os que atopan formas de derrotalos. , as persoas que constrúen novos sistemas de IA parecen ter vantaxe porque unha vez que unha imaxe chega a Internet, nunca está moi lonxe. Polo tanto, se un sistema de intelixencia artificial consegue evitar os intentos de evitar que sexa falsificado, non hai forma real de abordalo.

"É posible, se non é posible, que no futuro poidamos evitar calquera defensa que lle poñas a esa imaxe en particular", dixo Kamat. "E unha vez que está aí fóra, non podes recuperalo".

Por suposto, hai algúns sistemas de intelixencia artificial que poden detectar vídeos deepfake e hai formas de adestrar ás persoas para detectar pequenas anomalías que mostren que o vídeo está a ser falsificado. A pregunta é, chegará un momento no que nin os humanos nin as máquinas sexan capaces de entender que se manipulou unha foto ou un vídeo?

Que pasa coas maiores empresas xeradoras de IA?

Para Madri e Salman, a resposta é conseguir que as empresas de IA xoguen á pelota. Madry dixo que queren poñerse en contacto con algunhas das principais compañías xeradoras de IA para ver se están interesadas en facilitar o seu sistema proposto, aínda que, por suposto, aínda son os primeiros días, e MIT O equipo aínda está a traballar nunha API pública. Permite que os usuarios inmunizan as súas propias fotos (código dispoñible aquí).

Polo tanto, todo depende das persoas que constrúen a plataforma de imaxes AI. Mentres Murati de OpenAI díxolle a Noah nese episodio de outubro que tiñan "algunhas varandas" para o seu sistema, afirmando ademais que non permiten que a xente debuxe imaxes baseadas en figuras públicas (o que un termo vago na era das redes sociais onde practicamente todo o mundo está un rostro público). O equipo tamén está a traballar en máis filtros que restrinxirían ao sistema a creación de imaxes que conteñan imaxes violentas ou sexuais.

En setembro, OpenAI anunciou que os usuarios poderían cargar de novo caras humanas nos seus sistemas, pero afirmou que crearon formas de evitar que os usuarios mostrasen caras en contextos violentos ou sexuais. Tamén pediu aos usuarios que non suban imaxes de persoas sen o seu consentimento, pero hai moito que dicir de facer promesas sen cruzar os dedos desde internet xeral.

Non obstante, isto non quere dicir que outros xeradores de IA e as persoas que os crean estean en forma de xogo para moderar o contido xerado polos seus usuarios. Stability AI, a empresa detrás de Stable Diffusion, demostrou que son máis reacios a introducir barreiras que impidan que as persoas creen pornografía ou obras de arte derivadas usando o seu sistema. Aínda que OpenAI, ehm, mostrouse aberta para intentar evitar que os seus sistemas mostren sesgos nas imaxes que xera, StabilityAI mantívose moi calado.

O conselleiro delegado de IA de sustentabilidade, Imad Mostak, defendeu un sistema sen influencia do goberno nin das empresas, e ata agora loitou contra as peticións de máis restricións aos seus modelos de IA. con el Dixo que cre que a construción de imaxe "resolverase nun ano", permitindo aos usuarios crear "o que poidas soñar". Por suposto, isto só fala de bombo, pero demostra que Mostac non está disposto a dar marcha atrás para impulsar a tecnoloxía cada vez máis.

Aínda así, os investigadores do MIT seguen firmes.

Madry dixo: "Creo que hai preguntas moi incómodas sobre como é o mundo cando este tipo de tecnoloxía é facilmente accesible e, de novo, xa é facilmente accesible e será aínda máis fácil de usar". ""Estamos moi felices, e estamos moi entusiasmados co feito de que agora poidamos facer algo consensuado ao respecto".

Fonte

Posted in Uncategorized