Umělá inteligence (AI) se ve velkém používá k tvorbě falešných explicitních fotografií a videí. Během chvilky automaticky vzniknou falešné akty, které bylo dříve nutné vytvářet za pomoci grafických editorů a potřebného dílčího talentu. Ty následně slouží jak k šikanování, tak vydírání (tzv. sextortionu). Před tímto nebezpečím v kyberprostoru varoval Americký Federální úřad pro vyšetřování (FBI). Potkat může každého. Nejen celebrity, ale i úspěšné podnikatele či běžné občany. V případě sextortionu (sex sexuální a extortion vydírání) se obvykle vyděrači (tzv. scammeři) snaží získat peníze nebo jiné výhody od oběti tím, že hrozí zveřejněním kompromitujícího, avšak zfalšovaného materiálu. FBI upozorňuje na zvlášť znepokojující aspekt této hrozby – scammeři často využívají nevinné fotografie a videa, které lidé sdílejí na svých profilech na sociálních sítích. S pomocí deepfake technologie pak prostřednictvím umělé inteligence využijí obličej oběti k vygenerování pornografického materiálu. Oběti hlásí, že jejich neškodné příspěvky na sociálních sítích (fotky, videa atd.) zločinci přebírají a upravují pomocí AI generátorů obsahu. Nejde o nový typ útoků, jen dříve se k tomu využívaly programy pro (profesionální) úpravu fotografií, jako je Photoshop. Nyní však zločinci nepotřebují k transformaci žádné grafické dovednosti ani zkušenosti, případně hodiny práce nutné k ruční úpravě. Nově jim stačí pár fotek a AI. Všeobecná a snadná dostupnost AI byla spuštěna v listopadu 2022, kdy se objevil ChatGPT, který v tomto ohledu pro útoky představoval revoluci. Stoupající počet obětí podléhá novému trendu deepfake podvodů FBI dostává stále více podnětů od obětí, jejichž fotografie nebo videa byly explicitně upraveny. Tyto materiály jsou poté veřejně šířeny sociálními sítěmi nebo pornografickými webovými stránkami za účelem obtěžování a vydírání obětí. „Pokrok v technologiích s generativní tvorbou obsahu a snadná dostupnost osobních fotografií on-line poskytují pro zločince, kteří hledají a zaměřují své oběti, novou příležitost,“ uvádí Petr Kocmich, Global Cyber Security Delivery Manager společnosti Soitron. Vyděrači nejčastěji od obětí požadují peníze a hrozí, že budou fotografie a videa sdílet s členy rodiny a přáteli na sociálních sítích, pokud oběť nezaplatí. Alternativně je vydírají tím, že od obětí požadují skutečné sexuální snímky či videa. Tento nový trend deepfake podvodů se stále více rozšiřuje, a to nejen v oblasti sextortionu, ale také například při podvodech spojených s virtuálními hovory. Jak se chránit před vydíráním a sexuálním zneužíváním on-line Před těmito vyděračskými technikami není zcela v bezpečí nikdo, pokud všechny své obrázky z internetu neodstraní. Ani poté však nemusí být v úplném bezpečí, protože jej někdo může tajně fotografovat nebo natáčet ve skutečném životě a poté za účelem sextortionu nebo jiného podvodu zneužít pořízené materiály. Vzhledem k tomu, že se deepfake technologie stává stále pokročilejší a dostupnější, je nezbytné, aby vlády a legislativní orgány přijaly k ochraně občanů odpovídající opatření. V některých jurisdikcích již existují zákony, které vytváření falešných obrazů bez souhlasu zobrazené osoby trestají. Například Velká Británie plánuje v rámci připravovaného zákona o on-line bezpečnosti přijmout proti šíření takovéhoto materiálu opatření. „Stanete-li se obětí sextortionu, doporučujeme zachovat chladnou hlavu. Rozhodně nikomu nic neplaťte, protože to odstranění explicitního materiálu z internetu nezaručí. Naopak kontaktujte Policii ČR. Jako prevenci doporučujeme dodržovat na sociálních sítích standardní bezpečnostní kroky, jako je odmítání žádostí o přátelství od cizích lidí a využívání všech dostupných nastavení ochrany osobních údajů,“ radí Petr Kocmich. První nahé deepfake fotografie a videa vytvořené prostřednictvím AI se na internetu začaly šířit v roce 2017, kdy uživatelé na fórech, jako je například Reddit, testovali možnosti umělé inteligence k tvorbě sexuálně explicitního obsahu ženských celebrit. Ačkoliv existují pokusy o zastavení šíření takového obsahu, on-line nástroje a webové stránky pro vytváření deepfake nahých fotek jsou zatím snadno dostupné každému. The post Scammeři už nemusí umět s grafickými programy. Falešné akty z fotografií na sociálních sítích díky AI vytvoří za pár minut appeared first on Soitron.
Sboreček chce jít s dobou. A to nejen s dobou hudební, ale také technickou Proto od dnešního dne spouštíme své prezentace také na sociálních sítích Facebook, Twitter a Google+. Navštivte nás na sociálních sítích nebo sdílejte konkrétní články z našeho we
Jak vytvořit odkazy pro sledovaní profilů na sociálních sítích Lidé na vaše profily na sociálních sítích klikají, ale mnozí z nich se pravděpodobně neodebírají nebo nesledují. Ukážu vám několik drobných triků, které můžete udělat s adresami URL svých prof
projít na článekSoutěže, trendy, dekorace, aranžmá na Facebooku a Instagramu. Pro ty, které by uvítali na našich stránkách více aktuálních fotografií, jsme přidali tlačítka na naše sociální sítě Facebook a Instagram. Najdete je na našich stránkách úplně dole v patičce. N
projít na článekDalší volné pozice najdete TADY. Chcete nás prvně lépe poznat? Podívejte se na náš profil na portálu Welcome to the Jungle! O Rostlinně Rostlinně je neziskový projekt oslavující rostlinnou stravu. Povzbuzuje majitele restaurací k rozšiřování rostlinné nab
projít na článekVyhraj pro sebe či svůj tým dárkový poukaz od DDsport v hodnotě 3 000 Kč! Vánoční soutěž s DDsportem o dárkové poukazy je tady! Nahrajte nám fotku vašeho týmu v některém z našich produktů a vyhrajte dárkový poukaz na nákup sportovního oblečení v našem e-s
projít na článek