انڈیا کے پارلیمانی انتخابات میں اے آئی اور ڈیپ فیک کیسے اہم کردار ادا کر رہے رہیں؟

نیاز فاروقی - بی بی سی اردو، دہلی


getty
انڈیا کے شہر اجمیر میں واقع اپنے گھر میں کووڈ لاک ڈاؤن کے دوران دیویندر جدوں زندگی کے مقصد پر غور کر رہے تھے کہ انھوں نے اس فراغت کے وقت میں شوقیہ طور پر ڈیپ فیک ٹیکنالوجی کی مدد سے معروف فلموں کی ’سپوف‘ ویڈیوز بنانا شروع کر دیں۔

ڈیپ فیک ایک ایسی ٹیکنالوجی ہے جو کہ کمپیوٹر کی طاقت کے استعمال سے کسی بھی شخص کی حقیقی نظر آنے والی جعلی ویڈیو یا آواز بنا سکتی ہے جس میں اسے وہ کہتے یا کرتے ہوئے دکھایا جا سکتا ہے جس کا حقیقت سے کوئی تعلق نہ ہو۔

دیویندر جدوں بتاتے ہیں کہ ان کی اے آئی ویڈیوز جیسے ہی سوشل میڈیا پر مشہور ہونی شروع ہوئیں ویسے ہی سیاسی جماعتوں کے نمائندوں نے ان سے رابطہ کرنا شروع کردیا۔ ان میں سے چند ایسی درخواست لے کر آئے جو کہ دیویندر کے مطابق ’ایتھیکل‘ یعنی اصولی تھیں، لیکن بعض اپنے مخالفین کو نشانہ بنانے کے لیے غیر مناسب اور غیر اصولی ڈیپ فیک ویڈیوز بنوانا چاہتے تھے۔

وہ کہتے ہیں کہ ’ہر وہ شخص جو غیر اصولی ڈیپ فیک ویڈیوز کی درخواست لے کر آتا تھا اسے معلوم تھا کہ اسے اپنے مخالفین کو نشانہ بنانا ہے۔ لیکن وہ لوگ جو اصولی درخواستوں کے ساتھ آتے تھے، وہ نہیں جانتے تھے کہ انھیں اصل میں کیا چاہیے تھا‘۔

دیویندر کہتے ہیں کہ اصولی ویڈیوز کے لیے ان سے رابطہ کرنے والوں میں سے زیادہ تر کسی ویڈیو کا حوالہ لے کر آتے کہ آپ کچھ ایسا بنا دیجیے جس سے لوگوں کے سامنے وہ اپنے لیڈر کا بہتر چہرہ پیش کر سکیں۔

ان سلسلہ وار درخواستوں سے دیویندر کو یہ خیال آیا کہ یہ کاروبار کا ایک بہترین ذریعہ ہو سکتا ہے اور جلد ہی انھوں نے سیاسی جماعتوں کے لیے اے آئی کی مدد سے آڈیو اور ویڈیو بنانا شروع کر دیں جو کہ ان جماعتوں کو اور ان کے فالوروز کو اپنے لیڈر تک پہنچنے میں مدد کرتی تھیں۔

فی الحال ان کا کاروبار اتنا بڑا ہو گیا ہے کہ وہ چھ قومی اور مقامی پارٹیوں کے ساتھ اے آئی پر کام کر رہے ہیں اور انھوں نے کینیڈا اور سنگا پور جیسے ملکوں میں بھی آفس کھول لیے ہیں۔

دیویندر جدوں

دیویندر جدوں زندگی میں معنی تلاش کرنے کی کوشش کر رہے تھے کہ جب انھوں نے ’انڈین ڈیپ فیکر‘ کے نام سے شوقیہ طور پر آرٹیفیشئل انٹیلیجنس (اے آئی) کی مدد سے معروف فلموں کی ’ڈیپ فیک سپوف‘ ویڈیوز بنانا شروع کر دیا

اے آئی اور ڈیپ فیک کے ماہرین کا کہنا ہے کہ اے آئی کی مدد سے بنائے گئے اس قسم کے ڈیپ فیک مواد نے پارٹیوں کو اپنی انتخابی مہم کو تیز کرنے میں مدد کی ہے۔ لیکن اس کا ایک خوفناک پہلو بھی ہے جو بہت سے لوگوں کے لیے پریشان کن ہو سکتا ہے، کیونکہ یہ ممکنہ طور پر انڈیا کے انتخابات میں عام طور پر نظر آنے والی گمراہ کن خبروں میں مزید اضافہ کر سکتا ہے۔

مثال کے طور پر 19 اپریل کو انڈیا کے پارلیمانی انتخابات کے پہلے مرحلے سے چند روز پہلے بالی وڈ سٹار رنویر سنگھ اور عامر خان کی اپوزیشن کانگریس کی حمایت میں اپیل کرنے اور راہل گاندھی کی کانگریس پارٹی اور انڈیا چھوڑنے کا عہد کرنے کی ویڈیوز سوشل میڈیا پر سامنے آئیں اور ان میں سے کچھ بڑے پیمانے پر شیئر ہوئیں۔

یہ واضح نہیں ہے کہ یہ ویڈیوز کس نے جاری کیں لیکن فیکٹ چیک کرنے والی آزادانہ تنظیموں نے یہ نتیجہ اخذ کیا کہ ان ویڈیوز میں ڈیپ فیک ٹیکنالوجی کے ذریعے چھیڑ چھاڑ کی گئی تھی۔

لیکن یہ اس طرح کا واحد واقعہ نہیں تھا۔ کمپیوٹر سکیورٹی کمپنی ’میک افی‘ کی ایک حالیہ رپورٹ کے مطابق کم از کم چار میں سے ایک انڈین نے گذشتہ ایک سال میں کم از کم ایک ڈیپ فیک ویڈیو دیکھی ہے اور تقریباً 22 فیصد انڈینز نے حال ہی میں کم از کم ایک سیاسی ڈیپ فیک دیکھی جو بعد میں جعلی ثابت ہوئی۔

انڈیا میں اصولی ڈیپ فیکس بنانے میں شامل افراد کا کہنا ہے کہ سیاسی مہم میں اس کا صحیح اور غلط استعمال دونوں تیزی سے بڑھ رہا ہے۔ اس کے استعمال کے خلاف حالیہ مہینوں میں انڈیا کے کئی سینیئر سیاسی لیڈران اور افسران نے عوام کو خبردار کیا ہے۔

بنگلہ دیش، پاکستان، انڈونیشیا اور تائیوان سمیت دیگر ایشیائی ممالک سے بھی انتخابی مہم کے دوران اے آئی اور ڈیپ فیک ٹیکنالوجی کے استعمال اور غلط استعمال کی اطلاعات ملی ہیں۔

انتخابی مہم میں اے آئی کا کیسے استعمال ہو رہا ہے؟

لیکن ڈیپ فیک کے غلط استعمال کی خبریں سیاسی جماعتوں کے ذریعے اے آئی یعنی مصنوعی ذہانت کے مثبت استعمال پر حاوی ہوتی نظر آ رہی ہیں۔

واضح رہے کہ انڈیا میں ڈیپ فیک کے استعمال کی عام موجودگی سے پہلے انڈیا کی حالیہ حکمران جماعت بھارتیہ جنتا پارٹی (بی جے پی) ووٹروں تک پہنچنے کے لیے اس ٹیکنالوجی کا استعمال کرنے والی سب سے آگے رہنے والی پارٹیوں میں سے ایک ہے۔

وزیر اعظم بننے سے پہلے سنہ 2012 میں نریندر مودی جب گجرات کے وزیر اعلیٰ کے عہدے کے لیے اپنی انتخابی مہم چلا رہے تھے تب انھوں نے ’تھری ڈی‘ ہولوگرام کے ذریعے بیک وقت 53 ریلیوں سے خطاب کرکے گنیز بک آف ورلڈ ریکارڈ قائم کیا تھا۔ اسے حیدرآباد کی اونتری نامی ایک کمپنی نے بنایا تھا، جس نے حالیہ انتخابات میں مختلف پارٹیوں کو اے آئی کی مدد سے اپنے انتخابی پیغامات پہنچانے میں مدد کی ہے۔

بی جے پی اور دیگر پارٹیاں بھی ووٹروں کو پہلے سے ریکارڈِڈ یکطرفہ یعنی ’آٹو میٹیڈ‘ فون کال کے ذریعے اپنی کامیابیوں کی معلومات دیتی رہی ہیں یا ووٹروں کے مزاج کا اندازہ لگاتی رہی ہیں۔ لیکن اے آئی اور ’ڈیپ فیکرز‘ نے اے آئی کی مدد سے اس تصور کو بدل کر رکھ دیا ہے۔

فی الحال اے آئی کی مدد سے وہ دو طرفہ اور متعدد زبانوں میں فون کال کرنے میں کامیاب ہیں جو کہ ایک عام فون کال کی طرح بات چیت کا احساس دلاتی ہے۔ اس ٹیکنالوجی کے ماہرین بتاتے ہیں کہ اس کے تحت پارٹیاں متعدد زبانوں میں ووٹروں کو کال کر سکتی ہیں اور ووٹر ان سے اسی وقت سوال کر سکتے ہیں اور ٹیکنالوجی پارٹی کی طرف سے جواب دے سکتی ہے یا فیڈ بیک مانگ سکتی ہے۔

ڈیپ فیک کے ماہرین کہتے ہیں کہ دو طرفہ کالز کے لیے وہ ’این ایل ایم‘ یعنی کمپیوٹر کی وہ زبان جو انسانوں جیسی بات چیت کر سکتی ہے، جیسی ٹیکنالوجی کا استعمال کر رہے ہیں۔

دیویندر کہتے ہیں ’اس کے لیے آپ کو بہت کچھ نہیں کرنا ہوتا ہے۔ جیسا کہ آپ ’چیٹ جی پی ٹی‘ کا استعمال کرتے ہیں، یہ بھی ویسے ہی کام کرتا ہے‘۔

تاہم اگر ڈیپ فیک ویڈیو کے استعمال کی بات کی جائے تو بی جے پی کے لیڈر منوج تیواری نے سنہ 2020 کے دلی کے ریاستی انتخابات میں پہلی بار ڈیپ فیک ٹیکنالوجی کا استعمال کرتے ہوئے ایسی ویڈیوز جاری کی تھیں جس میں انھیں انگریزی اور ہریانوی زبانوں میں بات کرتے ہوئے سنا جا سکتا تھا حالانکہ ان کی مادری زبان ہندی ہے۔ اس کے ذریعے وہ ان ووٹروں تک پہنچنے کی کوشش کر رہے تھے جن کی زبان ان سے الگ تھی۔

انڈیا

جدوں کہتے ہیں کہ اصولی ویڈیوز کے لیے ان سے رابطہ کرنے والوں میں سے زیادہ تر کسی ویڈیو کا حوالہ لے کر آتے کہ آپ کچھ ایسا بنا دیجییے جس سے لوگوں کے سامنے وہ اپنے لیڈر کا بہتر چہرہ پیش کر سکیں۔

لیکن اسی درمیان چیٹ جی پی ٹی جیسی اے آئی ٹیکنالوجیز کی آمد کے ساتھ ڈیپ فیک ٹیکنالوجی بھی تیزی سے آگے بڑھی ہے، جس سے کسی کے لیے بھی محدود تکنیکی معلومات سے بھی منٹوں میں ڈیپ فیک آڈیو یا ویڈیو بنانا آسان ہو گیا ہے۔

ٹیکنالوجی میں تبدیلی کو دیکھتے ہوئے ڈیپ فیک بنانے والے تخلیق کاروں نے بھی اپنی کوششیں جاری رکھی ہیں، جیسے کہ پارٹیوں کو انفرادی ووٹرز کے لیے پیغام کو ذاتی بنانے میں مدد کرنا جس کے تحت پارٹی لیڈرز ووٹروں کو ان کے نام سے مخاطب کرتے ہیں، یعنی سبھی ووٹر کے لیے ایک معیاری ویڈیو کے بجائے ہر ووٹر کے لیے ان کے حساب سے پیغام بنایا جاتا ہے۔

سینتھل نایگم، جو کہ چنئی میں موونیم نامی ایک ڈیپ فیک ’سٹارٹ اپ‘ چلاتے ہیں، کا کہنا ہے کہ ہر شخص کو اپنا نام سننا پسند ہے اور اس طریقہ کار سے فوری رابطہ پیدا ہوتا ہے اور لوگ اکثر پیغام کو نظرانداز کرنے کے بجائے سنتے ہیں۔

یہ سیاسی جماعتوں کے لیے ایک اہم، سستا اور تیز ٹول ثابت ہو سکتا ہے۔

ابتدائی طور پر دیویندر اور سینتھل جیسے لوگ بیداری پیدا کرنے کے لیے مقبول فلموں کے ’لو ٹیک‘ ڈیپ فیکس نقل بناتے تھے۔ لیکن انڈیا میں اے آئی سے ’ایتھیکل‘ ڈیپ فیک بنانے والی کم از کم چار کمپنیوں نے تصدیق کی کہ سیاسی جماعتوں اور رہنماؤں کی طرف سے ڈیپ فیک مواد بنانے کی درخواستوں میں تیزی سے اضافہ ہو رہا ہے۔

سیاسی پارٹیوں کے درمیان یہ عجلت اس حقیقت سے ظاہر ہوتی ہے کہ کمیونسٹ پارٹی آف انڈیا، جن پر اکثر الزام لگایا جاتا ہے کہ وہ انڈیا میں کمپیوٹر جیسی نئی ٹیکنالوجیوں کے تعارف کے خلاف تھے، نے بھی حالیہ انتخابات میں ایک اے آئی ’اینکر‘ بنائی ہے جو کہ انتخابات کے دوران لوگوں تک پارٹی کے نظریے سے خبریں پہنچاتی ہے اور ساتھ میں موسیقی کے سٹریمینگ پلیٹ فارم سپوٹیفائی پر بھی ایک چینل بنایا ہے جو مصنوعی آڈیو کے استعمال سے خبریں نشر کرتا ہے۔

لیکن ڈیپ فیک تخلیق کار بتاتے ہیں کہ سیاسی جماعتیں خود رابطہ کرنے کے بجائے اکثر اپنے کسی نمائندے کے ذریعے ان سے رجوع کرنے کو ترجیح دیتی ہیں۔ وہیں قومی جماعتوں کے ساتھ کام کرنے والے دو سیاسی مشیروں (کنسلٹنٹس) کے مطابق اس طرح کی ٹیکنالوجی کی آسان دستیابی کا مطلب یہ بھی ہے کہ اب بہت سی جماعتوں کے پاس ڈیپ فیک بنانے کے لیے اپنی اندرونی ٹیمیں یا ان کے نمائندے موجود ہیں۔

انڈیا

نوجوان نسل کی بات کرتے ہوئے سینتھیل کہتے ہیں کہ ’ان کی توجہ کا دورانیہ کم ہے، وہ اپنے پسندیدہ طریقے سے مواد دیکھنا اور سننا چاہتے ہیں۔ اے آئی ایسے صارف کے جذبات کے حساب سے ان کے لیے ذاتی اور واضح مواد بنانے میں ہماری مدد کر سکتا ہے‘

سینتھیل بتاتے ہیں اپنی پہلی ڈیپ فیک ویڈیو کے طور پر انھوں نے تمل زبان کی دو اداکاراؤں کے چہروں کو ایک گانے کے ویڈیو میں تبدیل کیا تھا اور اس کے بعد انھوں نے مشہور اداکار رجنی کانت کی ایک فلم کے گانے کے لیے وفات پا جانے والے گلوکار ایس پی بالاسوبرامنیم کی آواز کو کلون کر کے انھیں ایک بار پھر ’زندہ‘ کیا تھا۔ ان کی یہ دونوں کوششیں وائرل ہو گئیں۔

وہ کہتے ہیں ’ہمارا مقصد اے آئی پر مبنی ڈیپ فیکس کی صلاحیت کے بارے میں بیداری پیدا کرنا تھا۔ لیکن ان تجربوں سے لوگوں کو خیال آیا کہ ’ارے! اب تو لوگوں کو ’زندہ‘ کیا جا سکتا ہے‘۔

یہ مواد وائرل ہوتے ہی ان کے پاس ’ڈی ایم کے‘ نامی مقامی سیاسی جماعت نے درخواست بھیجی کہ وہ اپنے سنہ 2018 میں فوت ہو جانے والے رہنما کروناندھی کو ’زندہ‘ کرنا چاہتے ہیں۔ ڈی ایم کے نے انھیں تمل زبان میں دو صفحات کا سکرپٹ فراہم کیا جو وہ چاہتے تھے کہ مرحوم کروناندھی ویڈیو میں بولیں۔

کروناندھی کی آواز کو ’کلون‘ کرنے کے لیے سینتھل نے ان کے 60 سال کی عمر میں دی گئیں تقاریر کا استعمال کیا اور اسی عمر اور آواز کے مطابق ان کے چہرے کا انتخاب کیا۔

اس ویڈیو کو سوشل میڈیا پر لائیو سٹریم کیا گیا۔ نیوز چینلوں نے اسے چلایا اور یہ سوشل میڈیا پر وائرل ہو گئی۔

سینتھیل کہتے ہیں کہ ’ہم اس سے ڈیپ فیک کے صلاحیت کی بارے بیداری پیدا کرنا چاہتے تھے۔ الیکشن تو ایک اتفاق تھا‘۔ وہ کہتے ہیں کہ یہ کامیاب اس لیے رہا کیونکہ اس سے ایک بہت ہی مقبول لیڈر کی یادیں تازہ ہو گئیں۔

وہ کہتے ہیں کہ اگر لوگوں کو ان کے اچھے لمحوں کی یاد دلائی جا سکے اور وہ یہ بات ووٹ ڈالنے تک یاد رکھیں تو آپ اپنا پیغام پہچانے میں کامیاب ہو گئے ہیں ’پھر ووٹر کے سامنے آپ ہزار منطقی نکات لا کر رکھ دیں، وہ اسے یاد نہیں رکھیں گے۔ ہمیں صرف اس ایک سیکنڈ کی ضرورت ہے جب ہم ان میں وہ جذبات پیدا کر سکیں اور ان کی پرانی یادیں انھیں یاد دلا سکیں‘۔

وہ اے آئی کی مدد سے لوگوں کی توجہ حاصل کرنے کی بات کر رہے ہیں اور یہی فارمولہ ایک اور اہم مسئلہ حل کر سکتا ہے جو ان پرانے لیڈروں کے لیے ایک چیلنج ہے جو لمبی تقریریں کرتے ہیں۔ اے آئی انھیں ان لوگوں تک پہنچنے میں مدد کر سکتی ہے جو ان کے مستقبل کے ووٹرز ہیں یعنی نوجوان نسلیں جو ’ریلز‘ اور ’سنیپس‘ جیسے مختصر مواد کی عادی ہیں۔

نوجوان نسل کی بات کرتے ہوئے سینتھیل کہتے ہیں کہ ’ان کی توجہ کا دورانیہ کم ہے، وہ اپنے پسندیدہ طریقے سے مواد دیکھنا اور سننا چاہتے ہیں۔ اے آئی ایسے صارف کے جذبات کے حساب سے ان کے لیے ذاتی اور واضح مواد بنانے میں ہماری مدد کر سکتا ہے‘۔

یہ پہلے بھی ہو سکتا تھا لیکن اب پہلے سے کہیں زیادہ آسان ہے۔ دیویندر کہتے ہیں کہ ’اب آپ کی آواز کا محض پانچ سیکنڈ کا نمونہ مل جائے تو ہم اس کا کلون بنا سکتے ہیں۔ اور اگر ہم بنا سکتے ہیں تو کوئی بھی بنا سکتا ہے‘۔

وہ کہتے ہیں کہ ’ویڈیو میں ڈیپ فیک سے چہرہ تبدیل کرنے کے لیے اب محض ایک ہی تصویر کافی ہے۔ پہلے بہت زیادہ ڈیٹا اور کمپیوٹیشنل پاور چاہیے ہوتی تھی، اس کے باوجود ہمیں ایک ویڈیو بنانے میں کئی روز لگتے تھے۔ مگر اب ایسا نہیں ہے‘۔

لیکن یہ آسانی دیگر چیلینجز بھی لے کر آئی ہے۔

کیا سچ کیا جھوٹ؟

اپریل سنہ 2022 میں بی جے پی کے ایک سیاست دان نے جنوبی ریاست تمل ناڈو حکومت کے ایک وزیر کی دو آڈیو کلپس جاری کیں جن میں وزیر اپنی پارٹی کے ممبران پر بدعنوانی کا الزام لگا رہے ہیں۔ اس ریکارڈنگ کے سامنے آنے کے بعد انھیں اپنے عہدے سے استعفیٰ دینا پڑا لیکن انھوں نے دعویٰ کیا کہ آڈیو جعلی تھیں۔

ٹیکنالوجی پر خبریں لکھنے والی ’ریسٹ آف ورلڈ‘ نامی پورٹل کے تجزیے کے مطابق ان میں ایک کلپ حقیقی تھی لیکن دوسرے پر شک ہے کہ اس میں چھیڑ چھاڑ کی گئی ہے، یعنی یہ پوری طرح واضح نہیں کہ کیا یہ کلپس حقیقی تھے یا ان میں کیے گئے دعوے سچ تھے۔

یہ واقعہ اس بات کی ایک جھلک پیش کرتا ہے کہ ڈیپ فیک کے اثرات حقیقت کو دھندلا کرنے میں کس حد تک جا سکتے ہیں اور انتخابات میں، خاص طور پر ووٹنگ کے دنوں میں، منفی رول ادا کر سکتے ہیں۔

دیویندر کہتے ہیں ’سب سے زیادہ پریشان کن بات یہ ہے کہ اس کے گمراہ کن استعمال سے لوگ حقیقت پر بھی یقین نہیں کریں گے۔ اس میں ’کنفرمیشن بائیس‘ کام کرے گا یعنی آپ کے لیے وہی سچ ہوگا جو آپ سننا چاہتے ہیں‘۔

دیویندر اس کے منفی استعمال کی ایک مثال دیتے ہیں۔ وہ بتاتے ہیں کہ انڈیا میں جاری پارلیمانی انتخابات سے چند دنوں پہلے ایک پارٹی کے سیاستدان کا نمائندہ ڈیپ فیک ویڈیو بنانے کی درخواست لے کر ان کے پاس آیا۔

یہ ایک عجیب و غریب درخواست تھی، کیونکہ ماضی کے برعکس جب درخواست گزار اپنے مخالفین کی حقیقی نظر آنے والی گمراہ کن ڈیپ فیک ویڈیوز کا مطالبہ کرتے تھے، وہ شخص اپنے لیڈر کے چہرے کے ساتھ ڈیپ فیک ویڈیو چاہتے تھے لیکن اس میں لیڈر کے چہرے کا ریزولوشن کم چاہتے تھے تاکہ وہ ویڈیو جعلی لگے۔ (ڈیپ فیک ویڈیوز میں اکثر حقیقی ویڈیو سے مختلف ریزولیوشن ہوتا ہے، آواز اور ہونٹ ساتھ نہیں چلتے، یا چہرہ بگڑا ہوتا ہے)

اس شخص نے دیویندر کو بتایا کہ ان کی مخالف پارٹی کے ہاتھ ان کے لیڈر کی ایک ویڈیو لگ گئی ہے جس میں وہ ایک ایسے فعل میں شامل ہیں جس کا سرعام ہونا ان کی انتخابی مہم کو خطرے میں ڈال سکتا ہے۔

جدوں کے مطابق وہ چاہتے تھے کہ اصلی ویڈیو باہر آنے کی صورت میں وہ بڑی تعداد میں کم ریزولوشن والی ڈیپ فیک ویڈیوز سوشل میڈیا پر بڑے پیمانے پر پھیلا دیں گے اور کہیں گے، ’یہ دیکھو، یہ تو ڈیپ فیک ویڈیو ہے‘۔

ایک عام صارف کے لیے اس طرح کی ویڈیو کی تصدیق کرنا کافی مشکل ہے اور گمراہ کرنے والے اسے بخوبی جانتے ہیں۔

دیویندر کہتے ہیں ’یہ سچائی کو دھندلا کرتا ہے، خاص طور پر الیکشن سے پہلے اگر کوئی آخری لمحات میں ڈیپ فیک ویڈیو نشر کر دے تو اس وقت فیکٹ چیکرز کے لیے بہت کم وقت ہوتا ہے کہ وہ کچھ کر پائیں‘۔

وہ کہتے ہیں کہ اصولی خدشات کی وجہ سے انھوں نے یہ پروجیکٹ نہیں لیا لیکن یہ بات ان کے لیے تشویشناک تھی کیونکہ اس طرح کے فعل سنگین بحران پیدا کر سکتے ہیں۔ یہ انڈین انتخابات میں منظم طور پر غلط معلومات اور گمران کن خبروں کے پھیلاؤ کو مزید سنگین کر سکتے ہیں۔

انڈیا

اونتری کمپنی کے صدر بھیرو شنکر کہتے ہیں کہ انڈیا میں پچھلے پانچ برسوں میں ٹیکنالوجی کے حوالے سے بہت تیزی آئی ہے

اس کے برعکس حیدرآباد میں مقیم اونتری کمپنی کے صدر بھیرو شنکر اسے دوسرے نظریے سے دیکھتے ہیں۔ وہ کہتے ہیں کہ انڈیا میں پچھلے پانچ برسوں میں ٹیکنالوجی کے حوالے سے بہت تیزی آئی ہے، لیکن ڈیپ فیک کا اثر اتنا نہیں ہو گا جتنا لوگوں کو خدشہ ہے۔

انھوں نے مختلف پارٹیوں کے ساتھ ان کی انتخابی مہم پر کام کیا ہے جس میں انھوں نے ’اے آئی ٹیکنالوجی‘ کے ذریعے سیاسی لیڈروں کے ساتھ ’ورچوئل سیلفی‘ بنوائی ہے، ’وی وار‘ کے استعمال سے لوگوں کی لیڈروں سے ورچوئل ملاقات کرائی ہے اور ’کیو آر کوڈ‘ کے ذریعے سیاسی لیڈروں کو براہ راست لوگوں کے موبائل فون تک پنہچایا ہے۔

وہ فی الحال جنوبی انڈیا کی ایک ریاستی پارٹی کی انتخابی مہم میں مدد کر رہے ہیں لیکن کہتے ہیں کہ ڈیپ فیک کا ان کے علاقے میں زیادہ اثر نہیں ہے۔

ان کے مطابق جہاں وہ کام کر رہے ہیں وہاں لوگوں میں اس قسم کے مواد پر شدید عدم اعتماد ہے۔ وہ کہتے ہیں کہ انھوں نے ایک سروے کیا جس سے یہ ظاہر ہوتا ہے کہ ’لوگ ان سب باتوں میں نہیں آنے والے‘۔

وہ کہتے ہیں جو چیزیں یہاں کام کر رہی ہیں وہ لوگوں کے جذبات کو چھونے والی چیزیں ہیں اور انھیں تفریح دلانے والی چیزیں ہیں، جسے اے آئی کی مدد سے ہم بڑے پیمانے پر بنا سکتے ہیں اور یہ بنائے بھی جا رہے ہیں۔

وہ اسے قدیم زمانے کی کولوزیم کی طرح دیکھتے ہے۔ ’ہم ان سیاست دانوں سے یہ امید کر رہے ہیں کہ وہ ہمیں تفریح فراہم کریں‘۔

وہ کہتے ہیں کہ اس فیلڈ میں آپ جتنا زیادہ مواد بناتے ہیں، جتنے زیادہ لوگوں کی توجہ حاصل کرنے میں کامیاب ہوتے ہیں، آپ اپنے بیانیے کے ساتھ لوگوں کو اتنا ہی اپنی طرف کھینچیں گے اور آپ کے سامعین کی ایک بڑی تعداد آپ کی بات سننے کے لیے تیار ہو گی‘۔

ان کے مطابق آج کے زمانے کے ہوشیار تخلیق کار اس کو سمجھتے ہیں اور اس کا استحصال کر رہے ہیں۔

انھوں نے جاری پارلیمانی انتخابات کے لیے کانگریس کے منشور کی مثال دی جس میں وسائل کی زیادہ منصفانہ تقسیم کا وعدہ کیا گیا ہے، لیکن بی جے پی نے اس کا فائدہ اٹھاتے ہوئے دعویٰ کیا کہ کانگریس ہندوؤں سے وسائل چھین کر مسلمانوں میں تقسیم کرنے کی کوشش کر رہی ہے۔

بھیرو کا کہنا ہے کہ اس کے لیے مواد بنانے کے لیے بی جے پی کے حامیوں نے اے آئی کا بڑے ماہرانہ طور سے سہارا لیا اور کافی جذباتی مواد بنایا۔

وہ بتاتے ہیں کہ انھوں نے ایسی ویڈیوز دیکھی ہیں جن میں واضح طور پر اے آئی کے استعمال سے آواز اور گرافکس بنائے گئے تھے ’اور یہ آوازیں کسی کمپیوٹر کے ذریعہ بنائی گئی تھیں۔ کسی کمپیوٹر سے سکرپٹ لکھوا لیا جو کہ ایک ایڈیٹر اسے چند سٹاک فوٹیج پر چسپاں کر دے گا۔ لیں جی ہو گیا ویڈیو تیار۔‘

وہ کہتے ہیں کہ ’جس ویڈیو کو بنانے میں مجھے ایک دن لگے گا، وہ اے آئی کی مدد سے 20 منٹ میں تیار ہے۔ یہ میرے لیے ایک بہت بڑا گیم چینجر ہے‘۔

اس طرح کا خصوصی مواد انڈیا کے لیے نئے امکانات پیدا کرتا ہے۔

سینتھل کہتے ہیں کہ انڈیا کے زیادہ تر وزیر اعظم ہندی بولنے والی شمالی انڈین ریاستوں سے رہے ہیں۔ ’کیا اے آئی، جو کہ کئی زبانوں کا فوری طور پر ترجمہ کر دیتی ہے، کسی تمل شخص کو وزیر اعظم بننے میں مدد کر سکتا ہے؟‘

یہ اس بات پر منحصر ہے کہ مستقبل کے اتنخابات میں اے آئی کتنا اثر انداز ہوتا ہے۔ ڈیپ فیکرز کا کہنا ہے کہ اس کے صحیح موازنے کے لیے ہمیں چار جون کو انتخابی نتائج آنے تک انتظار کرنا چاہیے۔


Facebook Comments - Accept Cookies to Enable FB Comments (See Footer).

بی بی سی

بی بی سی اور 'ہم سب' کے درمیان باہمی اشتراک کے معاہدے کے تحت بی بی سی کے مضامین 'ہم سب' پر شائع کیے جاتے ہیں۔

british-broadcasting-corp has 33080 posts and counting.See all posts by british-broadcasting-corp

Subscribe
Notify of
guest
0 Comments (Email address is not required)
Inline Feedbacks
View all comments