''کسی ملک کی سرحدوں کے اندر سکیورٹی کے لئے مصنوعی ذہانت کا استعمال ‘انسانی حقوق کے لئے کام کرنے والے گروپوں کی جانب سے مخصوص نوعیت کے سوالات اٹھائے جانے کا باعث بن سکتا ہے ‘ لیکن یہی سوالات اس وقت شدت اختیار کر جاتے ہیںجب ایسی ٹیکنالوجی کا استعمال سرحدیں عبور کرتا اور بین الاقوامی تعلقات کو متاثر کر نے کا باعث بنتا ہے۔ اس کی ایک مثال گوگل کا وہ بڑا پروجیکٹ ہے جس کا مقصد چینی مارکیٹوں کے لئے سنسر شدہ سرچ ایپ تیار کرنا تھا۔ ملک کے قواعد و ضوابط کے ساتھ جڑے رہ کر چین کی مارکیٹ سے فائدہ حاصل کرنے کا ارادہ ظاہر کرنے پر گوگل کے بارے میں یہ گمان کیا جا سکتا تھا کہ وہ چینی حکومت کی اقدار اور نظریات کو مسلسل پروان چڑھا رہی ہے۔ اس معاملے پر اعتراضات سامنے آنے کے بعد اس کمپنی نے 2010ء میں اس منصوبے کو خیر باد کہہ دیا۔ اور افق پر جو نئے سوالات منڈلا رہے ہیں ان سے موازنہ کیا جائے تو موجودہ ایشوز چھوٹے لگنے لگتے ہیں۔ حساب و شمار کا عمل ہمیشہ سے فروغ پذیر ہے۔ چنانچہ یہ سوال جلد اٹھایا جانے لگے گا کہ مشینوں کو کس حد تک خود مختاری دی جا سکتی ہے؟ خود کار ڈرائیونگ کی مثال لے لیتے ہیں‘ کیونکہ اس میں مصنوعی ذہانت اور مشینی بنانے کا عمل‘ دونوں کارفرما ہوتے ہیں۔ سوال یہ ہے کہ جب کوئی انسان ایسی گاڑی میں موجود ہو گا تو اس کو گاڑی پر کتنا کنٹرول ہو گا؟ اگر انسان کا اس کو چلانے میں کوئی عمل دخل نہیں ہو گا تو ایکسیڈنٹ کی صورت میں ذمہ دار کون ہو گا؟ اس کے کئی جواب ہو سکتے ہیں۔ انحصار اس بات پر ہو گا کہ یہ سوال کہاں؟ اورکس جگہ پوچھا جا رہا ہے؟ ٹیکنالوجی پر زیادہ انحصار کرنے والے معاشروں‘ جیسے جاپان‘ جنوبی کوریا یا چین‘ میں کاروں کے اہم حصے نکال دینا ممکنہ طور پر آسان ہو گا‘ جیسے سٹیرنگ ویلز۔ امریکہ میں ٹیکنالوجی کے حوالے سے جرأت و ہمت کا مظاہرہ کیا جاتا رہا ہے‘ پھر جنرل موٹرز کاروں کو سٹیرنگ ویلز کے بغیر سڑکوں پر لانے کی کاوشوں میں مصروف بھی ہے۔ اس کے باوجود امریکی انتظامیہ فکر مند ہے کہ نجانے اس کے کیا نتائج برآمد ہوں؟
آسیموف کا روبوٹکس کا پہلا اصول یہ ہے کہ روبوٹ کو کام کے دوران یا کام نہ کرنے‘ دونوں حالتوں میں کسی طور انسان کو نقصان نہیں پہنچانا چاہئے۔ آسیموف مستقبل بین اور دانشور کے طور پر جانا جاتا ہے اور اس کے بیان کردہ اس اصول کی گونج آج بھی سنائی دیتی ہے۔ گلوبل گورننس اور بین الاقوامی پالیسی کے حوالے سے بات کی جائے تو مصنوعی ذہانت کی فیصلہ سازی کی حدود کے تعین کا فیصلہ ہی افواج کے مستقبل کا تعین کرنے میں اہم ثابت ہو گا۔ جب ان فیصلوں کی بات ہو جو انسانی زندگی کے ضیاع پر منتج ہو سکتے ہوں تو سوال یہ پیدا ہوتا ہے کہ کسی مصنوعی ذہانت والی ٹیکنالوجی میں کتنی انسانی مداخلت کی ضرورت ہے؟مصنوعی ذہانت میں ترقی دور سے کنٹرول ہونے والے غیر ترکیبی جنگی آلات کی ایجاد کا سبب بن سکتی ہے۔ جب وہ مقام آ جائے گا تو تب امریکی ڈیپارٹمنٹ آف ڈیفنس کو ایسے اخلاقی تقاضوں پر مبنی فیصلے کرنے ہوں گے‘ سلیکون ویلی اور چینی حکومت جن کی حوصلہ افزائی کریں۔
ایک نیوکلیئر دور کے آغاز پر سائنس سے وابستہ و منسلک کمیونٹی فوجی مقاصد کیلئے نیوکلیئر تفہیم کے استعمال کی اخلاقی نوعیت کے بارے میں سوال اٹھا رہی ہے۔ حال ہی میں سلیکون ویلی میں قائم کمپنیوں سے اسی طرح کے سوالات پوچھے جاتے رہے ہیں کہ آیا ٹیکنالوجی میں ان کی ترقی کو حربی مقاصد کیلئے استعمال کیا جانا چاہئے؟ گوگل کمپنی امریکی فوج کے ساتھ کام کرنے کے حوالے سے اپنے اعتراضات واضح طور پر بیان کرتی رہی ہے۔ کچھ عرصہ پہلے پینٹاگون نے مصنوعی ذہانت کو امریکہ کی دفاعی حکمت عملی کا حصہ بنانے کے حوالے سے ایک
پروجیکٹ مرتب کیا تھا‘ جس کا نام پروجیکٹ ماون رکھا گیا۔ اس پروجیکٹ میں اس کمپنی کے کردار کے بارے داخلی سطح پر اختلاف رائے سامنے آنے اور تنازعہ کھڑا ہونے کے بعد گوگل کے چیف ایگزیکٹو آفیسر‘ سندر پچائی نے اپنی کمپنی کیلئے اخلاقی اصول و ضوابط وضع کئے۔ ان اصول و ضوابط میں لکھا گیا کہ یہ کمپنی مصنوعی ذہانت کو ہتھیاروں وغیرہ کی تیاری کیلئے فروغ نہیں دیگی‘ نہ ہی ایسے مقاصد کیلئے جن سے کسی کو نقصان پہنچے۔یہ سب ایسا ہی تھا جیسا آسیموف نے لکھا کہ ہونا چاہئے۔ پچائی نے یہ بھی لکھا کہ گوگل مصنوعی ذہانت کو نگرانی کے کسی ایسے معاملے میں استعمال کرنے میں حصہ دار بھی نہیں بنے گی جس سے ''بین الاقوامی سطح پر تسلیم شدہ ضوابط‘‘ کی خلاف ورزی کا اندیشہ پیدا ہوتا ہو۔ حال ہی میں گوگل جوائنٹ انٹرپرائز ڈیفنس انیشی ایٹو کے حصے کے طور پر ڈیفنس ڈیپارٹمنٹ کے کلائوڈ کمپیوٹنگ پروجیکٹ سے الگ ہو گئی۔ مائیکروسافٹ کے ملازمین نے بھی اسی کنٹریکٹ کیلئے بولی لگانے کا قصد کرنے پر اپنی ہی کمپنی کو ایک عوامی مراسلہ ارسال کیا جس میں اسکے اس ارادے پر اعتراضات اٹھائے گئے ہیں۔ اسی دوران ایمازون کے چیف ایگزیکٹو آفیسر جیف بیزوز‘ جن کی کمپنی تا حال جوائنٹ انٹرپرائز ڈیفنس انیشی ایٹو معاہدے کے تحت کام کر رہی ہے‘ نے کہا کہ ٹیکنالوجی کمپنیوں کا امریکی فوج کیساتھ اشتراک قومی سلامتی کو یقینی بنانے کیلئے ضروری ہے۔ جب فوجی آپریشنوں میں مصنوعی ذہانت کے استعمال کی بات ہوتی ہے تو اخلاقیات پر مبنی گائیڈ لائنز کی ضرورت بھی محسوس کی جانے لگتی ہے۔ مغربی فوجوں‘ بشمول امریکی فوج کے‘ نے ہمیشہ یہ عہد کیا کہ ایسے آپریشنوں‘ جن میں بے نامی مسلح گاڑیاں استعمال ہوتی ہیں‘ میں انسانوں کو بہر صورت شامل رکھا جائے تاکہ مصنوعی ذہانت کے تحت کئے گئے حملوں کے اخلاقی اور قانونی نتائج سے بچا جا سکے۔ لیکن جب ٹیکنالوجی بہتر ہوتی ہے تو یہ قوانین بھی مزید نشوونما پاتے ہیں۔ فوری فیصلوں کی خواہش‘ انسانی لیبر پر اٹھنے والے زیادہ اخراجات اور بنیادی صلاحیت میں اضافے کی ضرورت ایسے معاملات ہیں‘ جو ان ممالک کے لئے چیلنج ثابت ہوتے رہتے ہیں‘ جو انسانوں کو مصنوعی ذہانت کے دائرے میں شامل رکھنا چاہتے ہیں۔ بہرحال یہ واضح ہے کہ مصنوعی ذہانت ایک غیر انسانی کمانڈر کے طور پر کام اور کمانڈ اینڈ کنٹرول کے حوالے سے انسانی جنرلز کی نسبت بہتر طور پر فیصلے کر سکتی ہے۔
اگر امریکہ اب تک متعلقہ گائیڈ لائنز کی پابندی کرتا رہا ہے تو کچھ دوسرے ممالک جیسے چین‘ میں ایسا کرنے کی تحریک بہت ہی کم ہو سکتی ہے۔ چین متعدد شعبوں بشمول ورلڈ ٹریڈ آرگنائزیشن‘ میں بین الاقوامی آداب اور اقدار کو پہلے ہی چیلنج کر چکا ہے اور اس کا خیال ہے کہ یہ سب اپنی فوجی طاقت کو بڑھانے کیلئے مصنوعی ذہانت کو متنازعہ انداز میں استعمال کرنے کے ہتھکنڈے ہیں۔ یہ ایٹمی میدان ہے‘ جہاں چین لکیر واضح کھینچے سکتا ہے۔ بہرحال ایک بات طے ہے کہ اگر ایک طاقت جدید ترین ٹیکنالوجی کا متنازعہ طریقے سے استعمال کرے تو دوسروں کو بھی اس حوالے سے کوئی نہ کوئی فیصلہ کرنا پڑتا ہے‘‘ ( ختم)