Talaan ng mga Nilalaman:

Deep fakes: Itinuro ang Neuroset na bumuo ng sound at video fakes
Deep fakes: Itinuro ang Neuroset na bumuo ng sound at video fakes

Video: Deep fakes: Itinuro ang Neuroset na bumuo ng sound at video fakes

Video: Deep fakes: Itinuro ang Neuroset na bumuo ng sound at video fakes
Video: 🥵 99% Don't Know THIS About Window A/C!! #shorts 2024, Abril
Anonim

Upang lumikha ng isang "indibidwal" na larawan ng balita para sa sinuman sa atin at upang huwad ang mga ulat ng media na napili dito, ang mga pagsisikap ng isang programmer ay sapat na ngayon. Sinabi ng mga espesyalista sa artificial intelligence at cybersecurity kay Izvestia tungkol dito.

Kamakailan lamang, tinantiya nila na kailangan nito ang gawain ng maraming koponan. Ang ganitong acceleration ay naging posible sa pag-unlad ng mga teknolohiya para sa mga pag-atake sa mga neural network at ang pagbuo ng mga audio at video na pekeng gamit ang mga programa para sa paglikha ng "deep fakes". Ang pahayagan na Izvestia ay sumailalim kamakailan sa isang katulad na pag-atake, nang sabay-sabay na inilathala ng tatlong portal ng balita sa Libya ang isang mensahe na diumano ay lumabas sa isa sa mga isyu. Ayon sa mga eksperto, sa loob ng 3-5 taon maaari nating asahan ang pagsalakay ng mga robotic manipulator, na awtomatikong makakalikha ng maraming pekeng.

Matapang bagong mundo

Parami nang parami ang mga proyekto na nag-aayos ng larawan ng impormasyon sa pang-unawa ng mga partikular na gumagamit. Ang isang halimbawa ng kanilang trabaho ay ang kamakailang aksyon ng tatlong Libyan portal, na naglathala ng isang balita na diumano'y nai-publish sa isyu ng Izvestia noong Nobyembre 20. Binago ng mga gumawa ng pekeng pahina ang front page ng pahayagan, na nag-post dito ng mensahe tungkol sa negosasyon sa pagitan ni Field Marshal Khalifa Haftar at ng Punong Ministro ng Government of National Accord (PNS) na si Fayez Sarraj. Ang pekeng, sa Izvestia typeface, ay sinamahan ng larawan ng dalawang lider na kinunan noong Mayo 2017. Ang label na may logo ng publikasyon ay pinutol mula sa aktwal na nai-publish na isyu noong Nobyembre 20, at lahat ng iba pang teksto sa pahina mula sa isyu noong Oktubre 23.

Mula sa punto ng view ng mga espesyalista, sa nakikinita na hinaharap, ang mga naturang falsification ay maaaring awtomatikong gawin.

The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita
The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita

"Ganap na bukas na ngayon ang mga teknolohiya ng artificial intelligence, at ang mga device para sa pagtanggap at pagproseso ng data ay pinaliit at nagiging mas mura," Yuri Vilsiter, Doctor of Physical and Mathematical Sciences, Propesor ng Russian Academy of Sciences, pinuno ng departamento ng FSUE "GosNIIAS", sabi ni Izvestia. - Samakatuwid, malaki ang posibilidad na sa malapit na hinaharap, hindi kahit na ang estado at malalaking korporasyon, ngunit simpleng mga pribadong indibidwal ang makakapag-eavesdrop at maniktik sa atin, gayundin ang manipulahin ang katotohanan. Sa mga darating na taon, magiging posible, sa pamamagitan ng pagsusuri sa mga kagustuhan ng user, na maimpluwensyahan siya sa pamamagitan ng mga news feed at napakatalino na mga pekeng.

Ayon kay Yuri Vilsiter, umiiral na ang mga teknolohiyang maaaring magamit para sa naturang interbensyon sa mental na kapaligiran. Sa teorya, ang pagsalakay ng mga robotic bot ay maaaring asahan sa loob ng ilang taon, aniya. Ang isang limitasyon dito ay maaaring ang pangangailangan na mangolekta ng malalaking database ng mga halimbawa ng mga tunay na tugon ng mga tao sa mga artipisyal na stimuli na may pagsubaybay sa mga pangmatagalang kahihinatnan. Ang nasabing pagsubaybay ay malamang na mangangailangan ng ilang higit pang mga taon ng pananaliksik bago ang mga naka-target na pag-atake ay patuloy na makuha.

Pag-atake sa paningin

Sumasang-ayon din si Alexey Parfentiev, pinuno ng departamento ng analytics sa SearchInform, kay Yuri Vilsiter. Ayon sa kanya, hinuhulaan na ng mga eksperto ang mga pag-atake sa mga neural network, bagama't ngayon ay halos walang mga ganitong halimbawa.

- Naniniwala ang mga mananaliksik mula sa Gartner na pagsapit ng 2022, 30% ng lahat ng cyber attack ay layong sirain ang data kung saan sinanay ang neural network at magnakaw ng mga ready-made machine learning na modelo. Pagkatapos, halimbawa, ang mga walang sasakyang sasakyan ay maaaring biglang mapagkakamalan ang mga pedestrian para sa iba pang mga bagay. At hindi natin pag-uusapan ang panganib sa pananalapi o reputasyon, ngunit tungkol sa buhay at kalusugan ng mga ordinaryong tao, naniniwala ang eksperto.

Ang mga pag-atake sa mga computer vision system ay isinasagawa bilang bahagi ng pananaliksik ngayon. Ang layunin ng naturang mga pag-atake ay upang matukoy ng neural network ang isang bagay sa imahe na wala doon. O, sa kabaligtaran, hindi upang makita kung ano ang binalak.

The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita
The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita

"Isa sa aktibong pagbuo ng mga paksa sa larangan ng pagsasanay sa mga neural network ay ang tinatawag na adversarial attacks (" adversarial attacks. "- Izvestia)," paliwanag ni Vladislav Tushkanov, isang web analyst sa Kaspersky Lab. - Sa karamihan ng mga kaso, ang mga ito ay naglalayong sa mga computer vision system. Upang maisagawa ang gayong pag-atake, sa karamihan ng mga kaso, kailangan mong magkaroon ng ganap na access sa neural network (ang tinatawag na white-box attacks) o ang mga resulta ng trabaho nito (black-box attacks). Walang mga pamamaraan na maaaring linlangin ang anumang computer vision system sa 100% ng mga kaso. Bilang karagdagan, ang mga tool ay nalikha na na nagbibigay-daan sa iyo upang subukan ang mga neural network para sa paglaban sa mga pag-atake ng adversarial at dagdagan ang kanilang paglaban.

Sa kurso ng naturang pag-atake, sinusubukan ng attacker na kahit papaano ay baguhin ang kinikilalang imahe upang hindi gumana ang neural network. Kadalasan, ang ingay ay nakapatong sa larawan, katulad ng nangyayari kapag kumukuha ng larawan sa isang silid na hindi maganda ang ilaw. Karaniwang hindi napapansin ng isang tao ang gayong pagkagambala, ngunit ang neural network ay nagsisimulang mag-malfunction. Ngunit upang maisagawa ang gayong pag-atake, kailangan ng umaatake ng access sa algorithm.

Ayon kay Stanislav Ashmanov, Pangkalahatang Direktor ng Neuroset Ashmanov, sa kasalukuyan ay walang mga paraan ng pagharap sa problemang ito. Bilang karagdagan, ang teknolohiyang ito ay magagamit sa sinuman: maaaring gamitin ito ng isang karaniwang programmer sa pamamagitan ng pag-download ng kinakailangang open source software mula sa serbisyo ng Github.

The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita
The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita

- Ang isang pag-atake sa isang neural network ay isang pamamaraan at mga algorithm para sa panlilinlang sa isang neural network, na ginagawa itong mga maling resulta, at sa katunayan, sinisira ito tulad ng isang lock ng pinto, - naniniwala si Ashmanov. - Halimbawa, ngayon ay medyo madali na isipin ang sistema ng pagkilala sa mukha na hindi ikaw, ngunit si Arnold Schwarzenegger ang nasa harap nito - ginagawa ito sa pamamagitan ng paghahalo ng mga additives na hindi mahahalata sa mata ng tao sa data na dumarating sa neural network. Ang parehong mga pag-atake ay posible para sa speech recognition at analysis system.

Sigurado ang eksperto na lalala lang ito - ang mga teknolohiyang ito ay napunta na sa masa, ginagamit na ito ng mga manloloko, at walang proteksyon laban sa kanila. Dahil walang proteksyon laban sa awtomatikong paggawa ng mga video at audio na pamemeke.

Malalim na peke

Ang mga teknolohiyang Deepfake batay sa Deep Learning (mga teknolohiya ng malalim na pag-aaral ng mga neural network. - Izvestia) ay nagdudulot na ng tunay na banta. Ang mga video o audio fakes ay nilikha sa pamamagitan ng pag-edit o pag-overlay sa mga mukha ng mga sikat na tao na sinasabing binibigkas ang kinakailangang teksto at gumaganap ng kinakailangang papel sa balangkas.

"Pinapayagan ka ng Deepfake na palitan ang mga galaw ng labi at pagsasalita ng tao ng video, na lumilikha ng pakiramdam ng pagiging totoo sa nangyayari," sabi ni Andrey Busargin, direktor ng departamento para sa makabagong proteksyon ng tatak at intelektwal na ari-arian sa Group-IB. - Ang mga pekeng celebrity ay "nag-aalok" ng mga user sa mga social network na lumahok sa pagguhit ng mga mahahalagang premyo (smartphone, kotse, halaga ng pera), atbp. Ang mga link mula sa naturang mga publikasyong video ay kadalasang humahantong sa mga mapanlinlang at phishing na site, kung saan hinihiling sa mga user na magpasok ng personal na impormasyon, kabilang ang mga detalye ng bank card. Ang ganitong mga scheme ay nagdudulot ng banta sa parehong mga ordinaryong gumagamit at pampublikong figure na binanggit sa mga patalastas. Nagsisimula ang ganitong uri ng scam na iugnay ang mga larawan ng celebrity sa mga scam o na-advertise na produkto, at dito tayo nagkakaroon ng personal na pinsala sa brand, sabi niya.

The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita
The Truman Show - 2019: Paano Itinuro ng Mga Neural Network na Peke ang Larawan ng Balita

Ang isa pang banta ay nauugnay sa paggamit ng "pekeng mga boto" para sa pandaraya sa telepono. Halimbawa, sa Germany, gumamit ang mga cybercriminal ng voice deepfake para gawing agarang ilipat ng pinuno ng isang subsidiary mula sa UK ang € 220,000 sa isang pag-uusap sa telepono, na nagpapanggap bilang manager ng kumpanya.sa account ng isang Hungarian na supplier. Ang pinuno ng British firm ay naghinala ng isang trick nang humingi ang kanyang "boss" ng pangalawang money order, ngunit ang tawag ay nagmula sa isang Austrian number. Sa oras na ito, ang unang tranche ay nailipat na sa isang account sa Hungary, kung saan na-withdraw ang pera sa Mexico.

Lumalabas na pinapayagan ka ng mga kasalukuyang teknolohiya na lumikha ng isang indibidwal na larawan ng balita na puno ng pekeng balita. Bukod dito, malapit nang maging posible na makilala ang mga pekeng mula sa totoong video at audio sa pamamagitan lamang ng hardware. Ayon sa mga eksperto, ang mga hakbang na nagbabawal sa pagbuo ng mga neural network ay malamang na hindi epektibo. Samakatuwid, sa lalong madaling panahon tayo ay mabubuhay sa isang mundo kung saan kinakailangan na patuloy na suriin muli ang lahat.

"Kailangan nating paghandaan ito, at dapat itong tanggapin," diin ni Yuri Vilsiter. - Ang sangkatauhan ay hindi ang unang pagkakataon na lumilipat mula sa isang katotohanan patungo sa isa pa. Ang ating mundo, paraan ng pamumuhay at mga halaga ay lubhang naiiba sa mundo kung saan nabuhay ang ating mga ninuno 60,000 taon na ang nakalilipas, 5,000 taon na ang nakalilipas, 2,000 taon na ang nakalilipas, at kahit 200-100 taon na ang nakalilipas. Sa malapit na hinaharap, ang isang tao ay higit na mawawalan ng privacy at samakatuwid ay mapipilitang walang itago at kumilos nang tapat. Kasabay nito, wala sa nakapaligid na katotohanan at sa sariling pagkatao ang maaaring kunin sa pananampalataya, ang lahat ay kailangang tanungin at patuloy na suriin muli. Ngunit magiging kakila-kilabot ba ang hinaharap na katotohanang ito? Hindi. Ito ay magiging ganap na naiiba.

Inirerekumendang: