On the 30th day of the war against the Islamic Republic, X user ARIX (@arixolin), who closely tracks the conflict's information space, published a warning that cut through the noise. In a single post, he mapped out exactly how fake accounts are manufacturing kill claims about IRGC commanders for profit: در سی‌امین روز جنگ علیه جمهوری اسلامی، کاربر ARIX در پلتفرم ایکس که فضای اطلاعاتی جنگ را از نزدیک رصد می‌کند، هشداری منتشر کرد که توجه هزاران نفر را جلب کرد. او در یک پست، ساختار دقیق عملکرد اکانت‌های جعلی که ادعای ترور مقامات رژیم را برای کسب درآمد می‌سازند ترسیم کرد:

ARIX
ARIX @arixolin
Mar 29, 2026۹ فروردین ۲۵۸۵
اکانت‌های فارم هندی یه چیزی یاد گرفتن و چند روزه دارن هی خبر تایید نشده پخش می‌کنن.

یه سری اکانت اوسینت فیک اسرائیلی درست کردن، نقطه‌زنی‌ها رو سریع ربط می‌دن به اسم یه کسی که می‌دونن ایمپرشن می‌گیره. بعد همون خبر تایید نشده رو با شدت بالا تو بقیه اکانت‌های فارم خودشون تکرار می‌کنن، تا جایی که بالاخره خبر از یه خبرگزاری یا اکانت‌های با اعتبار بیشتر پخش بشه.

متاسفانه خبر مربوط به وحیدی و قالیباف هر دو از همین طریق داره پخش میشه.

با اخباری که به‌شدت برامون مهمه اینجوری دارن با روح و روانمون بازی می‌کنن!

این باعث میشه حتی خبر اگه درست باشه، زمانی که از کانال‌های رسمی اعلام میشه، اهمیت و ارزش خبریش رو از دست داده باشه.
Indian farm accounts have learned something and for the past few days have been constantly spreading unconfirmed news.

They've created fake Israeli OSINT accounts. They quickly attribute airstrikes to the name of someone they know will get impressions. Then they repeat the same unconfirmed news at high volume across their other farm accounts, until eventually the news gets picked up by a news agency or higher-credibility accounts.

Unfortunately, the news about Vahidi and Ghalibaf is both being spread through exactly this method.

They're playing with our emotions using news that matters deeply to us!

This causes even if the news turns out to be true, by the time it's announced through official channels, it has already lost its news value and significance.

This warning was seen thousands of times in a single day. It describes a pattern that IRNEWS had already caught through its own editorial process: fake accounts fabricating kill claims about IRGC commanders to farm engagement and revenue. We investigated. This article explains what we found, so you can spot it yourself. این هشدار که در یک روز هزاران بار دیده شده است، الگویی را توصیف می‌کند که تحریریه ایران‌نیوز پیش‌تر در جریان کار خود با آن مواجه شده بود: شبکه‌ای از اکانت‌های جعلی که با انتشار ادعاهای دروغین درباره ترور مقامات رژیم، بازدید و درآمد کسب می‌کنند. ما موضوع را پیگیری کردیم و این مقاله یافته‌هایمان را شرح می‌دهد تا شما هم بتوانید این الگو را بشناسید و فریب نخورید.

53۵۳
False claims tracked
by NewsGuard
ادعای نادرست ثبت‌شده
نیوزگارد
31۳۱
Accounts hacked
for "Iran War Monitor"
اکانت هک‌شده
«ایران وار مانیتور»
70++۷۰
IRGC fake accounts
blocked in one sweep
اکانت جعلی سپاه
مسدود شده در یک مرحله

How the Pipeline Works خط تولید دروغ چگونه کار می‌کند

Every fake kill claim follows the same six steps. Once you see the pattern, you will never fall for it again: هر ادعای جعلی ترور مسیر یکسانی را طی می‌کند. وقتی این الگو را بشناسید، دیگر فریب نخواهید خورد:

1۱
Real strike happensحمله واقعی رخ می‌دهد
Coalition strikes are real. Explosions are real. This is the foundation the farms exploit.حملات ائتلاف و انفجارها واقعی‌اند و همین واقعیت بستری است که فارم‌ها از آن سوءاستفاده می‌کنند.
2۲
Farm picks up the eventفارم رویداد واقعی را شکار می‌کند
The farm operator spots the real strike and picks a regime official's name that will generate maximum impressions. Vahidi, Ghalibaf, Jannati — the bigger the name, the more engagement, the more revenue.اپراتور فارم حمله واقعی را رصد می‌کند و نام مقامی را انتخاب می‌کند که بیشترین بازدید را بگیرد. وحیدی، قالیباف، جنتی — هرچه نام بزرگ‌تر، تعامل بیشتر و درآمد بالاتر.
3۳
Fake OSINT account posts the claimاکانت جعلی اوسینت ادعا را منتشر می‌کند
A fake "Israeli intelligence" or "war monitor" account publishes a "BREAKING" post attributing the strike to the chosen name. The account looks credible at first glance.یک اکانت جعلی «اطلاعات اسرائیل» یا «رصد جنگ» پستی «فوری» منتشر می‌کند و حمله را به نام انتخاب‌شده نسبت می‌دهد. اکانت در نگاه اول معتبر به نظر می‌رسد.
4۴
Farm network amplifiesشبکه فارم ادعا را تقویت می‌کند
Dozens of other accounts in the same network repost the claim simultaneously, creating the illusion of multiple independent sources confirming the same news.ده‌ها اکانت دیگر در همان شبکه، ادعا را به‌طور همزمان بازنشر می‌کنند و توهم تایید خبر از چندین منبع مستقل ایجاد می‌شود.
5۵
Real outlets pick it upرسانه‌های واقعی آن را بازنشر می‌کنند
Seeing the claim on "multiple accounts," some news outlets report it as "unconfirmed reports say..." without verifying the original source.رسانه‌ها با دیدن ادعا در «چندین اکانت» آن را با عنوان «گزارش‌های تایید نشده حاکی است...» منتشر می‌کنند، بدون اینکه منبع اصلی را بررسی کنند.
6۶
The damage is doneآسیب وارد شده
By the time the claim is debunked, thousands have celebrated or grieved for nothing. Trust in real news erodes. Next time a genuine kill is confirmed, the audience is confused and hesitant. The farm got paid. You got exhausted. Real journalism lost its impact.تا زمانی که ادعا تکذیب شود، هزاران نفر بی‌دلیل شادمانی کرده یا غمگین شده‌اند. اعتماد به اخبار واقعی کمرنگ‌تر شده. دفعه بعد که یک ترور واقعی تایید شود، مخاطب سردرگم است و تردید دارد. فارم به درآمدش رسیده، شما خسته شده‌اید و خبرنگاری واقعی تاثیرش را از دست داده.

Case Study: "Baba Banaras" نمونه واقعی: «بابا باناراس»

ARIX pointed to a specific account: "Baba Banaras" (@RealBababanaras), an India-based X account with 136,000 followers. Bio: "Defence enthusiastic, My religion is India." Multiple fact-checking organisations have flagged it for fabricated Iran war content. Here are examples of the kind of claims that circulate through these farm networks: ARIX به عنوان نمونه به اکانت «بابا باناراس» اشاره کرد: اکانتی هندی در ایکس با ۱۳۶ هزار دنبال‌کننده. در معرفی خود نوشته «علاقه‌مند به دفاع، مذهب من هند است.» چندین سازمان راستی‌آزمایی این اکانت را به دلیل انتشار مکرر اخبار جعلی درباره جنگ ایران شناسایی و گزارش کرده‌اند. نمونه‌هایی از این دست ادعاها که در شبکه فارم‌ها پخش شده‌اند:

"Qaani executed by IRGC" (Mar 5)«قاآنی توسط سپاه اعدام شد» (۵ مارس)
Photo of Qaani with a noose graphic. 8,200 views, 251 reposts. Entirely fabricated. No credible source has confirmed Qaani's death.عکس قاآنی با گرافیک طناب دار. ۸,۲۰۰ بازدید، ۲۵۱ بازنشر. کاملا ساختگی. هیچ منبع معتبری مرگ قاآنی را تایید نکرده.
"Ghalibaf killed" (circulated late Mar)«قالیباف کشته شد» (اواخر مارس)
ARIX specifically named this as a farm-spread claim. Ghalibaf issued public statements on Mar 29-30, confirmed by AFP, NYT, Guardian, and NPR. Alive and leading the war effort.ARIX این ادعا را نمونه‌ای از عملکرد فارم‌ها دانست. قالیباف در ۹ و ۱۰ فروردین بیانیه عمومی صادر کرد که خبرگزاری فرانسه، نیویورک تایمز، گاردین و ان‌پی‌آر آن را بازتاب دادند. زنده و فعال در مدیریت جنگ.
"Ahmad Jannati dead" (Mar 28-29)«احمد جنتی مرد» (۲۸-۲۹ مارس)
Farm accounts confused Ahmad Jannati (99yo Guardian Council chief) with his brother Mohammad Taqi Jannati who was reportedly killed in Qom. Regime media explicitly denied Ahmad Jannati's death. Classic farm error: not knowing the subject.اکانت‌های فارم احمد جنتی (دبیر ۹۹ ساله شورای نگهبان) را با برادرش محمدتقی جنتی که گزارش شده در قم کشته شده اشتباه گرفتند. رسانه‌های رژیم صریحا مرگ احمد جنتی را تکذیب کردند. خطای کلاسیک فارم: نشناختن سوژه.

The same pattern appeared in a "BREAKING" claim that IRGC Commander Vahidi had been assassinated. IRNEWS investigated and found the claim came from an Arabic X Blue subscriber who got Vahidi's appointment date wrong by 23 days. No credible outlet covered it. Vahidi was alive and commanding the next day. همین الگو در ادعای «فوری» ترور احمد وحیدی، فرمانده کل سپاه پاسداران، نیز مشاهده شد. بر اساس بررسی ایران‌نیوز، منشا این ادعا یک اکانت عربی‌زبان با اشتراک بلو ایکس بود که تاریخ انتصاب وحیدی را ۲۳ روز اشتباه درج کرده بود. تا پایان روز هیچ رسانه معتبری این خبر را بازتاب نداد و روز بعد وحیدی زنده و در حال فرماندهی تایید شد.

Why Does This Exist? The Money چرا این اکوسیستم وجود دارد؟ پول

X pays verified Blue subscribers based on how many views their posts generate. During the Iran war, unverified kill claims became one of the most profitable content categories. The more dramatic the claim, the more views, the more money. پلتفرم ایکس به صاحبان اکانت‌های تایید شده که اشتراک بلو دارند، بر اساس تعداد بازدید پست‌هایشان پول پرداخت می‌کند. در جریان جنگ ایران، ادعاهای تایید نشده ترور فرماندهان به یکی از پرسودترین دسته‌های محتوا تبدیل شد. هرچه ادعا جنجالی‌تر، بازدید بیشتر و درآمد بالاتر.

In one documented case, a Pakistan-based operator hacked 31 accounts, renamed them all "Iran War Monitor," and posted AI-generated fake war videos purely for ad revenue. X's own head of product confirmed the operation. The accounts were removed, but the incentive system that made it profitable was never fixed. در یک نمونه مستند، اپراتوری مستقر در پاکستان ۳۱ اکانت را هک کرده، نام همه را به «ایران وار مانیتور» تغییر داده و ویدیوهای جعلی جنگ ساخته‌شده با هوش مصنوعی منتشر کرده است؛ تنها انگیزه‌اش کسب درآمد تبلیغاتی بوده است. مدیر محصول ایکس شخصا وجود این عملیات را تایید کرده و اکانت‌ها مسدود شده‌اند، اما ساختاری که چنین کاری را سودآور کرده بود تغییری نکرده است.

X announced a 90-day monetisation ban for unlabelled AI war content. The Guardian and TechCrunch covered the policy. Then Elon Musk reversed the enforcement after creator backlash. The rule exists on paper. Enforcement does not. ایکس در واکنش به این موج اعلام کرد هر کسی ویدیوی جنگی ساخته‌شده با هوش مصنوعی بدون برچسب منتشر کند، ۹۰ روز از برنامه درآمدزایی محروم خواهد شد. گاردین و تک‌کرانچ هر دو این سیاست را پوشش دادند. اما ایلان ماسک در پی اعتراض تولیدکنندگان محتوا از اجرای آن عقب‌نشینی کرد. قانون روی کاغذ وجود دارد، اجرا نه.

Not Just Farms: Three Operations, One Fog فقط فارم نیست: سه عملیات، یک مه

When the volume of fake news grows so high that audiences can no longer tell real from false, a fog descends over the information space. That fog is not created by farms alone. Three very different operations contribute to it: وقتی حجم اخبار جعلی آنقدر بالا برود که مخاطب دیگر نتواند خبر واقعی را از دروغ تشخیص دهد، فضایی ایجاد می‌شود که ما این فضا را «مه» می‌نامیم. فارم‌ها تنها سازندگان این مه نیستند. سه عملیات کاملا متفاوت در این فضا فعال‌اند:

🇮🇷
Islamic Republicجمهوری اسلامی
Fake Israeli/Mossad accounts to mislead the public, identify Iranians helping the coalition, and suppress dissent. Also networks of fake Western personas like Scottish independence supporters that pivoted to regime propaganda when the war began. Confirmed by BBC and The Times.ساخت اکانت‌های جعلی اسرائیلی و موساد برای گمراه کردن مردم، شناسایی ایرانیانی که به ائتلاف کمک می‌کنند و سرکوب مخالفان. همچنین شبکه‌هایی از شخصیت‌های جعلی غربی مانند هواداران استقلال اسکاتلند که با شروع جنگ به تبلیغات رژیم تغییر جهت دادند. بی‌بی‌سی و تایمز وجود این اکانت‌ها را تایید کرده‌اند.
🇮🇱
Israel (PRISONBREAK)اسرائیل (PRISONBREAK)
Digital warfare operation to counter regime propaganda and encourage Iranian resistance. 50+ profiles with anti-regime content. Documented by University of Toronto's Citizen Lab.عملیات دیجیتال در راستای مقابله با تبلیغات رژیم و تشویق مردم ایران به مقاومت. بیش از ۵۰ پروفایل با محتوای ضدرژیم. آزمایشگاه شهروندی دانشگاه تورنتو این عملیات را مستند کرده است.
💰
Content Farmsفارم‌های محتوا
South Asian impression farms, the Pakistan "Iran War Monitor" hack, aggregator sites. No ideology. Pure profit from X's monetisation programme.فارم‌های ایمپرشن جنوب آسیا، هک «ایران وار مانیتور» پاکستان، سایت‌های تجمیع‌کننده. بدون ایدئولوژی. فقط سود خالص از برنامه درآمدزایی ایکس.
The motivations are not the same. The IRGC fabricates to mislead the Iranian people and hunt dissidents. Israel conducts legitimate digital warfare against the regime. Farms manufacture lies for money, with no allegiance to anyone. But the practical result for you is the same: an information space so crowded with contradictory claims that distinguishing reality becomes exhausting. These three operations are not coordinated with each other. There is no shared command room. But because all three operate in the same information space simultaneously, they produce a fog that makes it harder for everyone to find the truth. انگیزه‌ها یکسان نیست. سپاه پاسداران با هدف گمراه کردن مردم ایران و شناسایی مخالفان جعل‌سازی می‌کند. اسرائیل در چارچوب جنگ مشروع علیه رژیم، عملیات دیجیتال انجام می‌دهد. فارم‌ها بدون هیچ تعهدی، صرفا به خاطر پول خبر دروغ پخش می‌کنند. اما نتیجه عملی برای شما یکی است: فضایی پر از ادعاهای متناقض که تشخیص واقعیت را دشوار می‌کند. نکته مهم اینجاست که این سه عملیات با یکدیگر هماهنگ نیستند و هیچ اتاق فرمان مشترکی وجود ندارد. اما فعالیت همزمانشان در یک فضای اطلاعاتی، مه‌ای ایجاد کرده که عبور از آن برای همه دشوار است.

The Fabrication Factory کارخانه جعل

The raw material is increasingly AI-generated. AFP documented Tehran Times publishing a fake satellite image of Al-Udeid Air Base destruction, traced to a manipulated Google Earth frame. ARMA 3 video game footage circulated as real strikes on TikTok. A deepfake of Netanyahu speaking Farsi was posted on official Israeli channels. The IRGC claimed 650 Americans killed in one strike; the Pentagon confirmed six. NewsGuard has catalogued 53 distinct false claims as of late March 2026. مواد اولیه‌ای که این شبکه‌ها از آن استفاده می‌کنند، روز به روز بیشتر با هوش مصنوعی ساخته می‌شود. بر اساس تحقیقات خبرگزاری فرانسه، رسانه دولتی تهران تایمز تصویری ماهواره‌ای از تخریب ادعایی پایگاه العدید در قطر منتشر کرد که در واقع از روی یک تصویر گوگل ارث متعلق به فوریه ۲۰۲۵ با ابزارهای هوش مصنوعی دستکاری شده بود. فیلمی از بازی ویدیویی آرما ۳ با عنوان تصاویر واقعی حمله در تیک‌تاک دست به دست شد. ویدیویی دیپ‌فیک از نتانیاهو که به ظاهر به زبان فارسی صحبت می‌کند، از کانال‌های رسمی اسرائیل پخش شد. سپاه پاسداران مدعی کشته شدن ۶۵۰ نظامی آمریکایی در یک حمله به بحرین شد، در حالی که پنتاگون تنها شش کشته را تایید کرد. سازمان نیوزگارد تاکنون ۵۳ ادعای نادرست مجزا درباره این جنگ را شناسایی و ثبت کرده است.

The Tangsiri Lesson درس تنگسیری

The case of IRGC Navy commander Tangsiri is the clearest example of how the fog machine damages real news: پرونده فرمانده نیروی دریایی سپاه تنگسیری واضح‌ترین نمونه از آسیب ماشین مه‌ساز به اخبار واقعی است:

Jan 31, 2026۱۱ بهمن ۲۵۸۴
"Terror Alarm" claims Tangsiri assassinated. Explosion in Bandar Abbas. No credible source confirms.اکانت «ترور آلارم» ادعای ترور تنگسیری را منتشر کرد. انفجار در بندرعباس. هیچ منبع معتبری تایید نکرد.
Jan 31, 2026 (hours later)۱۱ بهمن ۲۵۸۴ (ساعاتی بعد)
IRGC denies. Calls "Terror Alarm" unreliable. Says Tangsiri is alive.سپاه تکذیب کرد. اکانت «ترور آلارم» را غیرقابل اعتماد خواند و تنگسیری را زنده اعلام کرد.
Feb — Mar 2026بهمن — فروردین ۲۵۸۵
Story fades without resolution. People don't trust regime media, so the IRGC denial doesn't settle anything. No independent source confirms or debunks. The claim quietly disappears from attention.خبر بدون نتیجه‌گیری محو شد. مردم به رسانه‌های رژیم اعتماد ندارند، پس تکذیب سپاه چیزی را حل نکرد. هیچ منبع مستقلی تایید یا تکذیب نکرد. ادعا بی‌سروصدا از توجه‌ها محو شد.
Mar 26, 2026۶ فروردین ۲۵۸۵
Tangsiri actually killed in coalition strikes on Bandar Abbas. Confirmed by IDF, Iran International, multiple Tier 1-2 sources.تنگسیری واقعا در حملات ائتلاف به بندرعباس کشته شد. ارتش اسرائیل، ایران اینترنشنال و منابع متعدد معتبر تایید کردند.
Mar 26, 2026 (reaction)۶ فروردین ۲۵۸۵ (واکنش)
Confusion when real news arrives. "Wait, didn't we hear this before? Is this the same old claim or actually new?" The real confirmation gets less attention because the audience has already processed and forgotten a version of this story months ago.سردرگمی هنگام رسیدن خبر واقعی. «صبر کنید، مگر این خبر قبلا نیامده بود؟ این همان ادعای قبلی است یا واقعا جدید است؟» تایید واقعی توجه کمتری جلب کرد چون مخاطب ماه‌ها قبل نسخه‌ای از این خبر را شنیده و فراموش کرده بود.

This is the real damage. The fog machine does not create false beliefs. It destroys the capacity to believe anything at all. As ARIX wrote: "Even if the news turns out to be true, by the time it's announced through official channels, it has already lost its news value." و این دقیقا آسیب اصلی ماشین مه‌ساز است: باور دروغین نمی‌سازد، بلکه خود توان باورپذیری را نابود می‌کند. به قول ARIX: «حتی خبر اگه درست باشه، زمانی که از کانالهای رسمی اعلام میشه، اهمیت و ارزش خبریش رو از دست داده باشه.»

Side by Side: Farm Claim vs Verified Kill مقایسه: ادعای فارم در برابر خبر تایید شده

Here is what a farm claim looks like next to a verified kill report. Learn to recognise the difference instantly: یک ادعای فارم در کنار یک خبر تایید شده ترور را ببینید. یاد بگیرید تفاوت را فورا تشخیص دهید:

FARM CLAIMادعای فارم
Label:برچسب: BREAKINGفوری
Speed:سرعت: Minutes after a strikeچند دقیقه پس از حمله
Source:منبع: "Reports say..." / "Iranian media..."«گزارش‌ها حاکیست...» / «رسانه‌های ایرانی...»
Detail:جزئیات: Often wrong (dates, ranks, units)اغلب اشتباه (تاریخ، رتبه، یگان)
Spread:انتشار: 20+ accounts simultaneouslyبیش از ۲۰ اکانت همزمان
Motive:انگیزه: Impressions / ad revenueبازدید / درآمد تبلیغاتی
VERIFIED KILLترور تایید شده
Label:برچسب: Developing / Confirmedدر حال پیگیری / تایید شده
Speed:سرعت: Hours to days after eventساعت‌ها تا روزها پس از رویداد
Source:منبع: "Reuters confirmed..." or "AP reported..." with direct link«رویترز تایید کرد...» یا «اسوشیتدپرس گزارش داد...» با لینک مستقیم
Detail:جزئیات: Accurate ranks, dates, locationsرتبه، تاریخ و محل دقیق
Spread:انتشار: OSINT → Tier 2 → regime/IDF confirmsاوسینت ← رسانه معتبر ← تایید رژیم/ارتش اسرائیل
Motive:انگیزه: Accurate reportingگزارش‌دهی دقیق

How to Protect Yourself: Red Flags vs Green Flags چگونه از خودتان محافظت کنید: نشانه‌های خطر در برابر نشانه‌های اعتبار

After one month of filtering war claims, these patterns reliably separate farm content from real intelligence: پس از یک ماه بررسی ادعاهای جنگی، با این الگوها می‌توانید محتوای فارم را از اخبار واقعی تشخیص دهید:

🔴
Name attached within minutesنام ظرف چند دقیقه نسبت داده شده
If an official's name appears within minutes of a strike, it is almost certainly fabricated. Real confirmation takes hours to days. اگر نام مقامی ظرف چند دقیقه پس از حمله ظاهر شود، تقریبا قطعا جعلی است. تایید واقعی ساعت‌ها تا روزها طول می‌کشد.
🟢
Named outlet confirmsرسانه مشخص تایید کرده
"Reuters reported" or "AFP confirmed" with a direct link. The source is named and verifiable, not "Iranian media says." «رویترز گزارش داد» یا «خبرگزاری فرانسه تایید کرد» با لینک مستقیم. منبع مشخص و قابل بررسی است، نه «رسانه‌های ایرانی گزارش دادند.»
🔴
"Iranian media" with no outlet named«رسانه‌های ایرانی» بدون نام رسانه
Both farms and IRGC accounts use this vague attribution to launder unverified claims. Which outlet? They never say. هم فارم‌ها و هم اکانت‌های سپاه از این عبارت مبهم برای مشروع جلوه دادن ادعاهای بی‌پایه استفاده می‌کنند. کدام رسانه؟ هرگز نمی‌گویند.
🟢
Source chain visibleزنجیره منبع قابل مشاهده
OSINT signal → Tier 2 outlet → regime acknowledgement or IDF confirmation. Each step adds credibility. No shortcuts. سیگنال اوسینت ← رسانه معتبر ← تایید رژیم یا اعلام ارتش اسرائیل. در هر مرحله اعتبار خبر بیشتر می‌شود. میانبری وجود ندارد.
🔴
Same claim on 20 accounts at onceهمان ادعا همزمان در ۲۰ اکانت
That is one source amplified, not 20 confirmations. If they all posted within 5 minutes, they are the same operation. این یک منبع تقویت شده است، نه ۲۰ تایید. اگر همه در بازه ۵ دقیقه‌ای پست کرده‌اند، بخشی از یک عملیات واحدند.
🟢
Factual details are correctجزئیات واقعی صحیح است
Real intelligence gets ranks, dates, and unit names right. Farm operators don't know the subject. They know the keywords that get impressions. در اخبار واقعی، رتبه‌ها، تاریخ‌ها و نام یگان‌ها دقیق است. گردانندگان فارم سوژه را نمی‌شناسند و فقط کلمات کلیدی پربازدید را بلدند.

The Numbers: Nearly More Lies Than Truth آمار: تعداد دروغ‌ها تقریبا از واقعیت‌ها بیشتر است

After 30 days of war, the information landscape looks like this: پس از ۳۰ روز جنگ، منظره اطلاعاتی چنین است:

For every confirmed official killed, there has been more than one false claim circulating. The fog is not a side effect of war. It is a parallel industry. در برابر هر مقامی که کشته شدنش تایید شده، بیش از یک ادعای دروغین در فضای اطلاعاتی چرخیده است. پخش اطلاعات نادرست عارضه جانبی جنگ نیست، یک صنعت موازی است.

What You Can Do شما چه می‌توانید بکنید

You cannot stop the farms. You cannot shut down the IRGC's fake accounts. You cannot control what X monetises. But you can control your own reaction. Every time you pause before sharing a "BREAKING" claim, every time you check the source chain before celebrating or grieving, every time you refuse to give a farm account the emotional reaction it was designed to extract, the fog machine loses a little bit of its power. شما نمی‌توانید فارم‌ها را متوقف کنید. نمی‌توانید اکانت‌های جعلی سپاه را ببندید. نمی‌توانید سیاست‌های درآمدزایی ایکس را تغییر دهید. اما می‌توانید واکنش خودتان را کنترل کنید. هر بار که پیش از بازنشر یک ادعای «فوری» مکث کنید، هر بار که زنجیره منبع را پیش از شادمانی یا غم بررسی کنید، هر بار که از دادن واکنش احساسی که فارم برای استخراج آن طراحی شده خودداری کنید، ماشین مه‌ساز کمی از قدرتش را از دست می‌دهد.

Share this article. Not because IRNEWS wrote it, but because the more of us who recognise these tricks, the less power the farms have to deceive us. این مقاله را به اشتراک بگذارید. نه به این دلیل که ایران‌نیوز آن را نوشته، بلکه به این دلیل که هرچه تعداد بیشتری از ما این ترفندها را بشناسیم، قدرت فارم‌ها برای فریب دادنمان کمتر می‌شود.

The simplest rule: Wait for the source chain, not the claim. A verified kill follows a pattern. A farm claim follows a different one. Learn the difference. It protects your emotional energy for the moments that actually matter. ساده‌ترین قانون: منتظر زنجیره منبع باشید، نه ادعا. یک خبر تایید شده ترور مسیر مشخصی دارد. ادعای فارم مسیر دیگری. این تفاوت را بشناسید. انرژی احساسی‌تان را برای لحظاتی نگه دارید که واقعا اهمیت دارند.