🔥Тъй като горските пожари продължават да опустошават Лос Анджелис, Калифорния, причинявайки загуба на живот и огромни материални щети, спекулациите, че знакът на Холивуд също е опустошен от пламъците, завладяха интернет като буря. VIRAL разпространение на изображения и видеа, генерирани от AI, показващи забележителността в пламъци, хвърли светлина върху потенциала за дезинформация при спешни случаи, което поражда опасения относно използването на технологията.
@jacoblovesdinho Proof to the people that thought it was pre-recorded #hollywood #lafire #hollywoodsign #fire #losangeles #studiocity #tourists #nofire #wildfire #proof ♬ original sound - Jacob
🔥Към момента горските пожари в Лос Анджелис са взели десет жертви и са унищожили 10 000 сгради, според официални данни. Огромни участъци от Пасифик Палисейдс- квартал, известен с разкошните си атракциони и знаменитости, бяха изгорени до основи, което предизвика широко разпространено безпокойство. Към днешна дата повече от 130 000 жители са били поставени под заповед за евакуация.
🔥На фона на този хаос онлайн се разпространиха изображения, показващи, че знакът на Холивуд — културен символ — е обхванат от пламъци. По-късно тези изображения, които придобиха популярност в социални медийни платформи като X (бивш Twitter ), бяха определени като генерирани от AI. Картите на пожарните инциденти от Калифорнийския департамент по горско стопанство и противопожарна защита (CAL FIRE) предоставиха по-ясна картина: знакът на Холивуд не беше в засегнатата зона на пожара по време на писането.
🔥Камерите на живо на забележителността предоставиха допълнително потвърждение, че тя е останала недокосната от съседните пожари. Няколко потребители на социални медии посочиха генерирания от AI характер на изображенията, предизвиквайки разговор около използването на технологията за бързо и убедително разпространение на фалшиви новини. Глеб Ткачук, продуктов директор в генератора на AI изображения ARTA, каза пред Newsweek:👇
„Инструментите за генериране на AI, базирани на модели за машинно обучение, могат да позволят на потребителите да илюстрират всяка идея, която им хрумне, и да генерират изключително реалистични визуализации за секунди."
@panblazic There is fire but Hollywood sign is fake news. Pray for LA🙏 #LA #California #news ♬ original sound - Pan Blažič
🔥 Трудността се увеличава, когато се стремите към силно специфични или сложни резултати, тъй като трябва да прецизирате подканите, но с комбиниран подход, ясно разбиране на това, което очаквате, и някои практически умения, създаването на реалистични изображения на всеки предмет или събитие вече не е предизвикателство.
„А правенето на фалшификат сега не струва нищо.“
🔥Tkatchouk каза, че генерираните от AI изображения, показващи надписа на Холивуд в пламъци, имат потенциала да всеят паника и страх.
„Те също показват неуважение към огромните усилия, положени от пожарникарите“, каза той.
@tasteourworld The End will sh*ck you 😨🔥 Exposing Al-Generated Lies About the Hollywood Sign! The Hollywood Sign stands tall and untouched, as captured in this genuine photo. Some accounts on social media have been circulating false videos claiming the area is burning, using Al-generated edits to spread misinformation. It's important to verify facts and not fall for these fabricated visuals. Let's appreciate the beauty of Los Angeles without promoting baseless panic. #HollywoodSign #LosAngeles #TruthMatters #NatureBeauty ♬ original sound - Taste Our World 🌍
🔥 С бързото развитие на AI технологията и все по-реалистичното качество на изхода, границата между това, което е истинско и това, което е фалшиво, за мнозина стана донякъде размита. Tkatchouk каза, че е наша социална отговорност да използваме AI технологията внимателно, особено след като тя вече е широко достъпна и творенията могат да се споделят онлайн. За тези, които се притесняват от дигиталното разпространение на дезинформация, дълбоките фалшиви видеоклипове на човек, в които лицето или тялото му са променени цифрово, станаха особено обезпокоителни през последните няколко години. Komninos Chatzipapas, основателят на HeraHaven AI, каза пред Newsweek: Бариерата за навлизане за създаване на deepfake намаля значително през последните две години.
@ragnacore Hollywood sign on fire #palisades #palisades2025 #losangeles #wildfires #ai #la ♬ i was only temporary - my head is empty
„Сега, като използва свободно достъпен софтуер, всеки може да създава фалшиви изображения, без да се нуждае от специализирани познания за AI. Най-лошото е, че те не само могат да създадат ново фалшиво изображение от нулата, но и да редактират съществуващи изображения.“
🧐🔥Пожарите в окръг Лос Анджелис
Горските пожари, обхващащи окръг Лос Анджелис в Южна Калифорния, изглежда са създали благоприятна почва за разпространение на дезинформация. Заподозрян подпалвач, за който се твърди, че е въоръжен с огнехвъргачка, беше арестуван в четвъртък. Полицейското управление на Лос Анджелис посочи, че пожарът в Кенет, който избухна на север от пожара в Палисейдс, вероятно е бил умишлено запален.
@mummykins.uk There are loads of pictures going around on social media claiming the Hollywood sign got damaged in the wildfires, but Reuters has fact-checked it and confirmed they’re fake. People who’ve seen it say the sign is totally fine! **Misinformation isn’t helping anyone, just adding to the chaos. Stay safe and informed!** #HollyWoodFire #HollywoodSign #LosAngelesfire #Wildfire #StayInformed #DisasterNews ♬ Fake - The Tech Thieves
🔥Това развитие добави още един слой сложност към вече тежката ситуация. Chatzipapas и Tkatchouk казват, че във времена като тези, когато хората вече са в повишена готовност, проверената и надеждна информация е най-необходима. За Tkatchouk социалните медийни платформи трябва да приемат допълнителни мерки за борба с дезинформацията.
„Платформите прилагат няколко подхода за борба с дезинформацията, като цифров воден знак, невидим за човешкото око, но достъпен за компютърна проверка на факти или маркиране на метаданни“, каза той. „Въпреки че тези подходи са добри за окончателно филтриране на генерирано съдържание, платформите и емисиите с новини все още трябва да решат дали изобщо да обслужват тази информация.“
🔥Chatzipapas каза, че тъй като предизвикателствата при откриването на генерирано от AI съдържание нарастват поради нарастващата им сложност, вниманието, което се отделя на проверката на съдържанието, трябва да расте успоредно.
@sydneysimss Hollywood sign update #sunsetfire #lafire #palisadesfire ♬ fine line acoustic - h
„Софтуерът за откриване на Deepfake просто не работи както трябва и изобщо не е точен“, каза той. „Причината е, че тези AI инструменти не оставят никакви следи. Единственият начин да се защитим от дезинформация е да оценим надеждността на всеки, който е изпратил или качил снимка.“
🔥Основателят на AI startup каза, че на този етап генерираното от AI видеосъдържание е по-лесно за доверие, отколкото на изображения, тъй като е „много по-трудно“ да се създаде реалистично или правдоподобно видео съдържание под формата на deepfakes. Докато жителите и службите за спешна помощ работят за управлението на горските пожари, разпространението на генерирано от AI съдържание за бедствието служи като ярко напомняне за потенциалните капани на тази технология.
@sanjidakhatun835 How 2 Days Changed California 😭 #fyp #foryoupage #california_wildfire #Hollywood_sign_burned #pray_for_california ♬ Very Sad - Enchan
Източник: NewsWeek
Източник снимки: : istock
Източник снимки: : gettyimages