خودکار فلسفی گاڑی اپنے مالک کو قربان کرے گی یا راہگیر کو؟

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

لوگوں کو اس بات پر اعتراض ہو سکتا ہے کہ الگورتھم ہمارے لیے کبھی بھی اہم فیصلہ نہیں کر سکتا ہے۔ کیونکہ عام طور پر اہم فیصلوں میں اخلاقی پہلو شامل ہوتے ہیں اور الگورتھم اخلاقیات کو نہیں سمجھتے۔ اس کے باوجود یہ فرض کر لینے کی بھی بالکل کوئی وجہ نہیں ہے کہ الگورتھم اخلاقیات کے میدان میں ایک عام انسان کو مات نہیں دے سکے گا۔ پہلے ہی اسمارٹ فون اور خودمختار گاڑیوں جیسے آلات ایسے فیصلے کرتے ہیں، جو کبھی انسان کی اجارہ داری تھے۔ انہوں نے ان تمام اخلاقی مسائل کا سامنا کرنا شروع کر دیا ہے جن سے انسان کئی صدیوں سے نبرد آزما ہیں۔

مثال کے طور پر فرض کریں دو بچے گیند کے پیچھے بھاگ رہے ہیں اور اچانک سے وہ خود کار گاڑی کے سامنے جمپ لگا دیتے ہیں۔ اپنے حساب کتاب کی بنیاد پر گاڑی چلانے ولا الگورتھم یہ طے کرے گا کہ دونوں بچوں کو بچانے کا واحد راستہ مخالف سمت میں موجود گلی میں گھسنا ہے اور جبکہ دوسری طرف سے آنے والے ٹرک سے ٹکرانے کا خطرہ ہے۔ الگورتھم حساب کتاب لگاتا ہے کہ ایسی صورت حال میں کار کا مالک جو پچھلی نشست پر سو رہا ہے، اس کے مارے جانے کے ستر فیصد امکان ہیں۔ اب الگورتھم کو کیا کرنا چاہیے؟

فلسفی ہزاروں سالوں سے اس جیسے ’احمقانہ مسائل‘ پر بحث کر رہے ہیں۔ لیکن بنیادی انسانی رویہ پر ان مباحث کا اثر انتہائی کم ہوا ہے، کیونکہ بحران کے وقت انسان اپنے فلسفیانہ خیالات کو بھول جاتے ہیں اور اس کی بجائے اپنے جذبات اور جبلتوں پر عمل پیرا ہوتے ہیں۔

سوشل سائنسز کی تاریخ کا سب سے گندا تجربہ دسمبر 1970 میں پرنسٹن تھیولوجیکل سماروی کے طلبا کے ایک گروپ پر کیا گیا تھا، جو پریس بائرن چرچ میں وزارتوں کے امیدوار تھے۔ ہر طالب علم کو مین بلڈنگ سے کافی دور واقع ایک لیکچر ہال میں پہنچنے اور وہاں ’اچھے سماروی کی کہانی‘ کو سب سے موثر انداز میں سنانے کا کہا گیا۔ اس کہانی میں بتایا گیا تھا کہ یروشلم سے جیریو جانے والے ایک یہودی کو مجرموں نے لوٹا اور بے تحاشا تشدد کرنے کے بعد سڑک کے کنارے مرنے کے لیے چھوڑ دیا۔

تھوڑی دیر بعد ایک پادری اور ایک لاوی (معاون) قریب سے گزرے، مگر دونوں نے اسے نظر انداز کر دیا۔ اس کے برعکس ایک سماروی (یہودیوں میں حقیر سمجھے جانے والے فرقے کا ایک رکن) رکا، جب اس نے متاثرہ شخص کو دیکھا تو اس کی جان بچائی اور اس کی دیکھ بھال کی۔ اس کہانی کا اخلاقی سبق یہ ہے کہ لوگوں کو ان کی مذہبی وابستگی کی بجائے، ان کے اصل طرز عمل سے ہی جانچنا چاہیے۔

جوشیلے سماروی نوجوان سارے راستے غور و فکر کرتے رہے کہ سامرائی کہانی کی بہترین اخلاقیات کو کیسے سمجھانا ہے۔ لیکن تجربہ کرنے والوں نے ان کے راستے میں ایک بہروپیے کو کھڑا کر دیا، جو آنکھیں بند کیے سر کو جھکائے کھڑا تھا۔ جب سماروی طالب علم تیزی سے اس کے قریب سے گزر رہے تھے، اس وقت یہ لاچار شخص کھانس رہا تھا اور انتہائی تکلیف سے کراہ رہا تھا۔ سماروی طلبہ نے اس کی مدد کرنا تو دور کی بات تھی، اتنی زحمت بھی نہ کی اس سے پوچھ لیں کہ اس کو کیا تکلیف ہے؟ لیکچر ہال میں جلدی پہنچے کے دباؤ کے زیر اثر وہ اخلاقی ذمہ داری بھول گئے کہ اگر کوئی اجنبی شخص مشکل میں ملے تو اس کی ہر حال میں مدد کرنی ہے۔

انسانی جذبات دیگر ان گنت حالات میں فلسفیانہ نظریات تراشتے رہتے ہیں۔ یہ عمل دنیا کی اخلاقی اور فلسفیانہ تاریخ کو شاندار نظریات کی افسردہ کہانی بنا دیتا ہے، جو بہت کم مثالی رویوں کو جنم دیتا ہے۔ حقیقت میں کتنے عیسائی ہیں جو اپنا دوسرا گال پیش کرتے ہیں، کتنے بدھ مت واقعتاً انانیت کے فریب سے بلند ہوتے ہیں اور کتنے یہودی ایسے ہیں جو اپنے ہمسائیوں کے لیے بھی وہی پسند کرتے ہیں جو وہ اپنے لیے پسند کرتے ہیں۔

فطری انتخاب نے ہومو سیپیئنز کو اسی طرز پر بنایا ہے۔ باقی دیگر ممالیہ جانوروں کی طرح ہومو سیپیئنز بھی زندگی اور موت سے متعلق فیصلے کرنے کے لیے جذبات کا سہارا لیتے ہیں۔ ہمیں لاکھوں آبا و اجداد سے غصہ، خوف اور شہوت وراثت میں ملی ہے، ہمارے ان سبھی اجداد نے قدرتی انتخاب کے انتہائی سخت کوالٹی کنٹرول ٹیسٹ پاس کیے ہیں۔

بدقسمتی سے لاکھوں سال پہلے افریقی چراگاہوں میں زندہ رہنے اور افزائش نسل کے لیے جن عوامل کی ضرورت تھی، ان کی بدولت یہ لازمی نہیں ہے کہ وہ اکیسویں صدی کی موٹرویز پر ذمہ درانہ سلوک کریں۔ منتشر الخیال، ناراض اور پریشان انسانی ڈرائیور ہر سال ٹریفک حادثات میں دس لاکھ سے زیادہ افراد کی جان لے لیتے ہیں۔ ہم ان ڈرائیوروں کو اخلاقیات کی تبلیغ کرنے کے لیے اپنے تمام فلاسفروں، نبیوں اور پادریوں کو بھیج سکتے ہیں، لیکن سڑک پر ممالیہ جانوروں والے جذبات، افریقی چراگاہوں کی جبلتیں اب بھی ان پر حاوی رہیں گی۔ نتیجتاً سماروی پریشانی میں مبتلا لوگوں کو نظر انداز کردیں گے اور بحرانی کیفیت سے دوچار ڈرائیور پیدل راہگیروں کے اوپر گاڑی چڑھادیں گے۔

سیمینار اور سٹرک کے مابین تفاوت اخلاقیات میں سب سے بڑا عملی مسئلہ ہے۔ امانوئل کانٹ، جان اسٹورٹ مل اور جان راول آرام دہ یونیورسٹی ہال میں بیٹھ کر اخلاقیات سے جڑے نظریاتی مسائل پر کئی دنوں تک گفت و شنید کر سکتے ہیں۔ لیکن کیا حقیقت میں ان کے نتائج کو ایمرجنسی میں پھنسے پریشان حال ڈرائیوروں پر نافذ کیا جا سکتا ہے؟ شاید مائیکل شوماکر (فارمولا ون چیمپیئن جسے کبھی تاریخ کا سب سے بہترین ڈرائیور کہا جاتا تھا) کار میں ریس لگاتے ہوئے فلسفہ کے بارے میں سوچنے کی صلاحیت رکھتے تھے، لیکن ہم میں سے اکثر شوماکر نہیں ہیں۔

تاہم کمپیوٹر الگورتھم کو قدرتی انتخاب نے یہ شکل نہیں دی ہے، اس کے علاوہ وہ جذبات رکھتے ہیں اور نہ ہی جبلت۔ لہذا بحران کے لمحات میں وہ اخلاقی رہنما خطوط پر عمل کر سکتے ہیں، جو انسانوں سے کہیں بہتر ہیں۔ بشرطیکہ ہم اخلاقیات کا مختصر اعداد و شمار پر مشتمل طریقہ کار تلاش کر لیں۔ اگر ہم کانٹ، مل اور روال کو کوڈ لکھنا سکھا دیں تو وہ اپنی آرام دہ لیبارٹریوں میں خود کار گاڑی کو چلانے کے لیے انتہائی احتیاط کے ساتھ پروگرام ترتیب دے لیں گے اور یقین کریں کہ وہ خود کار گاڑی مائیکل شوماکر کے ذریعے چلائی جائے گی اور امانوئل کانٹ کی فلاسفی پر عمل پیرا ہوگی۔

اس طرح اگر آپ خود کار گاڑی کی پروگرامنگ اس انداز میں کرتے ہیں کہ اپنے راستے میں آنے والے دو بچوں کو بچانے کے لیے مخالف لین میں جاتی ہے تو یقیناً آپ شرط لگا سکتے ہیں کہ یہ ایسا ہی کرے گی۔ اس ساری بات کا مطلب یہ ہے کہ جب خود کار گاڑی کو ڈیزائن کیا جائے گا تو ٹویوٹا یا ٹیسلا اخلاقیات کی فلاسفی میں موجود ایک تھیوریٹیکل مسئلہ کو عملی انجنئیرنگ کے مسئلے میں ڈھال رہے ہوں گے۔

خود کار گاڑیوں کو عطا کیا گیا فلسفیانہ الگورتھم کبھی بھی کامل نہیں ہوگا۔ غلطیاں پھر بھی ہوں گی جس کے نتیجے میں چوٹیں، اموات اور انتہائی پیچیدہ قانونی مقدمات چلیں گے۔ (تاریخ میں پہلی بار آپ کسی فلسفی کے نظریات سے رونما ہونے والے بد قسمت نتائج کے لیے مقدمہ چلا سکیں گے، کیونکہ تاریخ میں پہلی بار آپ فلسفیانہ نظریات اور حقیقی زندگی کے واقعات کے مابین براہ راست رابطہ ثابت کرسکیں گے ) تاہم انسانی ڈرائیوروں سے کنٹرول حاصل کرنے کے لیے الگورتھم کو کامل ہونے کی ضرورت نہیں ہے۔

اسے صرف انسانوں سے بہتر ہونے کی ضرورت ہے۔ یہ دیکھتے ہوئے کہ انسانی ڈرائیور ہر سال ایک ملین سے زیادہ افراد کو مار دیتے ہیں۔ یہ کوئی بڑا حکم نامہ نہ ہوگا۔ جو کچھ اب تک بتایا گیا ہے اگر سب کچھ ویسا ہی ہوجاتا ہے تو پھر آپ اپنی کار کسی نو عمر شرابی کو چلانے کی اجازت دیں گے یا پھر شوماکر اور کانٹ کی ٹیم کو؟

یہی منطق نہ صرف ڈرائیونگ کے لیے صادق آتی ہے، بلکہ باقی بہت ساری صورتحال میں بھی لاگو ہوتی ہے۔ مثال کے طور پر نوکری کی درخواستیں لے لیں۔ اکیسویں صدی میں، کسی شخص کو نوکری پر بھرتی کیا جانے کی فیصلہ سازی کی طرف الگورتھم تیزی سے بڑھ رہا ہے۔ متعلقہ اخلاقی معیارات کے تعین کے لیے ہم مشین پر انحصار نہیں کر سکتے ہیں۔ ان معاملات کو طے کرنے کے لیے ابھی انسانوں کی ضرورت ہے۔ جب ہم جاب مارکیٹ میں اخلاقی معیار کا تعین کرلیتے ہیں (مثلاً سیاہ فام لوگوں یا خواتین کے ساتھ امتیازی سلوک غلط ہے ) توان معیارات کو نافذ کرنے اور برقرار رکھنے کے لیے ہم انسانوں سے زیادہ مشینوں پر انحصار کر سکتے ہیں۔

عین ممکن ہے کہ انسانی منیجر اس اخلاقی معیار سے واقف ہو اور اس سے اتفاق بھی کرتا ہوں کہ کالے لوگوں اور خواتین کے ساتھ امتیازی سلوک کرنا غیر اخلاقی عمل ہے۔ لیکن پھر جب کوئی کالی عورت ملازمت کے لیے درخواست دیتی ہے تو منیجر لاشعوری طور پر اس کے ساتھ امتیازی سلوک کرتا ہے اور اس کو نوکری پر بھرتی نہ کرنے کا فیصلہ کرتا ہے۔ اس کے برعکس، اگر ہم کسی کمپیوٹر کو ملازمت کی درخواستوں کا جائزہ لینے کی اجازت دیتے ہیں۔

اور کمپیوٹر کی نسل اور جنس کو مکمل طور پر نظر انداز کرنے کی پروگرامنگ کردیتے ہیں، توہم یقین سے کہہ سکتے ہیں کہ کمپیوٹر واقعی ان عوامل کو نظر انداز کردے گا، کیونکہ کمپیوٹر کے پاس لاشعور نہیں ہے۔ یقیناً نوکریوں کی درخواستوں کی جانچ پڑتال کی کوڈنگ کرنا آسان نہیں ہوگا اور یہ خطرہ ہمیشہ رہے گا، کہ انجنئیر کسی بھی طرز کے تعصبات کے زیر اثر پروگرامنگ نہ کردیں۔ تاہم اگر اس طرح کی غلطیوں کا جب بھی علم ہوگا، تو سافٹ وئیر کو درست کرنا (انسانوں کو ان کی نسل پرستی اور غلط فہمی پر مبنی تعصبات سے نجات دلانے کی نسبت) کہیں زیادہ آسان ہوگا۔

ہم نے دیکھا ہے کہ مصنوعی ذہانت کا عروج زیادہ تر انسانوں کو ملازمت کی منڈی سے باہر نکال سکتا ہے۔ بشمول ڈرائیور اور ٹریفک پولیس (جب فسادی انسانوں کی جگہ فرمانبردار الگورتھم لے لیں گے تو ٹریفک پولیس بے کار ہو جائے گی) ۔ تاہم فلسفیوں کے لیے کچھ نئے مواقع سامنے آسکتے ہیں، کیونکہ ان کی صلاحیتیں (اب تک مارکیٹ میں ان کی قدروقیمت کم نہیں ہوئی) کی اچانک بہت زیادہ مانگ ہوگی۔ لہذا گر آپ کوئی ایسی چیز کا مطالعہ کرنا چاہتا ہے جو مشکل میں اچھی ملازمت کی ضمانت دے تو شاید فلسفہ اتنا برا جوا نہیں ہے۔

بلاشبہ فلسفی شاذونادر ہی عمل کی درست سمت پر متفق ہوں گے۔ تمام فلاسفروں کے اطمینان کی حد تک بہت سارے ”ٹرالی مسائل“ حل ہو گئے ہیں اور جان اسٹورٹ مل جیسے نتیجہ خیز مفکرین (جو اعمال کا نتائج کے ذریعہ فیصلہ کرتے ہیں ) امانوئل کانٹ (جو مکمل قواعد وضوابط کے تحت اعمال کا فیصلہ کرتے ہیں ) جیسے فلسفی سے مختلف رائے رکھتے ہیں۔ کیا واقعی ٹیسلا کو کار تیار کرنے کے لیے اس طرح کے پیچیدہ معاملات پر کوئی واضح موقف اختیار کرنا چاہیے۔

شاید، ٹیسلا اس بات کا فیصلہ مارکیٹ پر چھوڑ دے۔ ٹیسلا خود کار گاڑی کے دو ماڈل تیار کرے گا: پہلی گاڑی ’ٹیسلا الٹراوسٹ‘ (یعنی ٹیسلا انسان دوست خودکار گاڑی) اور دوسری ’ٹیسلا ایگویسٹ‘ (یعنی ٹیسلا خود غرض خودکار گاڑی) ۔ کسی ہنگامی صورتحال میں ’ الٹراویسٹ ‘ خود کار گاڑی اپنے مالک کو زیادہ سے زیادہ بھلائی کے لیے قربان کر دیتی ہے، جبکہ ’ ایگویسٹ ‘ خود کار گاڑی اپنے مالک کو بچانے کے لیے اپنی ہر ممکن طاقت کو استعمال کرتی ہے، چاہے اس کے لیے اسے دو بچوں کو ہی کیوں نہ مارنا پڑے۔ اس وقت گاہک وہ خود کار گاڑی خرید سکے گا جو اس کے اپنے پسندیدہ فلسفے کے مطابق ہوگی۔ اگر زیادہ تر لوگ ٹیسلا ایگویسٹ خریدتے ہیں تو آپ اس امر کے لیے ٹیسلا کو موردالزام نہیں ٹھہرا سکتے ہیں، کیونکہ گاہک ہمیشہ درست ہوتا ہے۔

یہ کوئی مذاق نہیں ہے۔ 2015 کے ایک معروف مطالعے میں خود کار گاڑی کا ایک فرضی منظر نامہ پیش کیا گیا تھا، جو کئی پیدل چلنے والوں پر چڑھنے والی تھی، بیشتر لوگوں نے کہا کہ ایسی صورت حال میں کار کو پیدل چلنے والوں کو بچانا چاہیے، چاہے اس کے بدلے میں اس کے مالک کی موت ہو جائے۔ لیکن جب ان سے پوچھا گیا کہ کیا وہ ذاتی طور پر ایسی خود گاڑی خریدنا پسند کریں گے جو اپنی پروگرامنگ کے مطابق بھلائی کے اعلیٰ ترین مقصد کے لیے اپنے مالک کو قربان کردے؟ تو اکثریت نے اس کے جواب میں نفی کا اظہار کیا۔ اپنے لیے انہوں نے ٹیسلا ایگویسٹ کو ہی پسند کیا۔

اس صورتحال کا ذرا اندازہ لگائیں کہ آپ نے ایک نئی کار خریدی ہے، لیکن اس سے پہلے کہ آپ اسے استعمال کرنا شروع کرسکیں، آپ کو سیٹنگ مینو کھولنا ہوگا اور کئی خانوں میں سے ایک خانے کو ٹک کرنا ہوگا۔ کسی حادثے کی صورت میں کیا آپ چاہتے ہیں کہ آپ کی کار آپ کی جان قربان کردے یا پھر دوسری گاڑی میں موجود افراد خانہ کو ہلاک کردے؟ کیا اس طرح کا کوئی بھی انتخاب آپ خود کرنا چاہیں گے؟ ذرا ان دلائل کے بارے میں سوچیں جو آپ اپنے شوہر کو دے رہی ہیں تاکہ فیصلہ ہو سکے کہ ہمیں کون سے خانے کو ٹک کرنا ہے۔

اس لیے شاید ریاست کو مارکیٹ کو منظم کرنے کے لیے مداخلت کرنی چاہیے اور خودکار گاڑیوں کو پابند کرنے کے لیے اخلاقی ضابطہ بنانا چاہیے۔ یقیناً کچھ قانون ساز آخر کار ایسے قوانین بنانے پہ ہکا بکا رہ جائیں اور شاید باقی قانون ساز ایسی بے مثال اور آمرانہ ذمہ داری سے ڈر جائیں۔ بہرحال، تاریخ میں قانون نافذ کرنے والے اداروں کی حدود نے قانون سازوں کے تعصب، غلطیوں اور زیادتیوں کو بڑے احسن انداز میں کنٹرول کیا ہے۔ یہ انتہائی خوش قسمتی کی بات تھی کہ ہم جنس پرستی اور توہین مذہب کے خلاف قوانین کو صرف جزوی طور پر نافذ کیا گیا تھا۔ کیا ہم واقعتاً ایسا نظام چاہتے ہیں جس میں زوال پذیر سیاستدانوں کے فیصلے کشش ثقل کی طرح بے رحم ہوجائیں گے۔

اس سیریز کے دیگر حصےکیا گوگل، بائیو میٹرک، جی پی ایس اور الگورتھم کی دنیا میں ہماری انفرادی شناخت گم ہو جائے گی؟  ڈیجیٹل آمریت: اکیسویں صدی کے اکیس سبق (قسط نمبر 14)۔
Comments - User is solely responsible for his/her words

  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Leave a Reply