ایک رپورٹ میں اسرائیلی انٹیلی جنس کے چھ نامعلوم ذرائع کے انٹرویوز کا حوالہ دیا گیا ہے جن کا دعویٰ ہے کہ لیوینڈر کے نام سے جانا جانے والا یہ نظام ‘مشتبہ عسکریت پسندوں’ کو نشانہ بنانے اور ان کو قتل کرنے کے لیے استعمال کیا گیا تھا جس کی وجہ سے بڑی تعداد میں شہری ہلاکتیں ہوئیں۔
میلبورن: گزشتہ ہفتے شائع ہونے والی ایک رپورٹ کے مطابق، اسرائیلی فوج نے غزہ میں ممکنہ فضائی حملوں کے لیے دسیوں ہزار انسانی اہداف کی فہرستیں تیار کرنے کے لیے ایک نیا مصنوعی ذہانت سسٹم استعمال کیا۔ یہ رپورٹ غیر منافع بخش آؤٹ لیٹ +972 میگزین سے آئی ہے، جسے اسرائیلی اور فلسطینی صحافی چلاتے ہیں۔
رپورٹ میں اسرائیلی انٹیلی جنس کے چھ نامعلوم ذرائع کے انٹرویوز کا حوالہ دیا گیا ہے۔ ذرائع کا دعویٰ ہے کہ لیونڈر کے نام سے جانا جاتا یہ نظام دیگر مصنوعی ذہانت سسٹمز کے ساتھ مشتبہ عسکریت پسندوں کو نشانہ بنانے اور ان کو قتل کرنے کے لیے استعمال کیا گیا تھا – بہت سے اپنے گھروں میں – جس کی وجہ سے بڑی تعداد میں شہری ہلاکتیں ہوئیں۔
گارڈین کی ایک اور رپورٹ کے مطابق، انہی ذرائع کی بنیاد پر جو +972 کی رپورٹ میں ہے، ایک انٹیلی جنس افسر نے کہا کہ سسٹم نے بڑی تعداد میں حملے کرنا “آسان” بنا دیا، کیونکہ “مشین نے اسے ٹھنڈے طریقے سے کیا”۔
جیسا کہ دنیا بھر کی فوجیں مصنوعی ذہانت استعمال کرنے کی دوڑ میں لگ جاتی ہیں، یہ رپورٹیں ہمیں دکھاتی ہیں کہ یہ کیسا لگ سکتا ہے: مشین کی رفتار سے جنگ محدود درستگی اور بہت کم انسانی نگرانی کے ساتھ، شہریوں کے لیے زیادہ قیمت کے ساتھ۔
اسرائیلی ڈیفنس فورس ان رپورٹس میں کئی دعووں کی تردید کرتی ہے۔ گارڈین کو ایک بیان میں، اس نے کہا کہ وہ “مصنوعی انٹیلی جنس سسٹم کا استعمال نہیں کرتا ہے جو دہشت گردوں کے کارندوں کی شناخت کرتا ہے”۔ اس میں کہا گیا ہے کہ لیوینڈر ایک مصنوعی ذہانت سسٹم نہیں ہے بلکہ “صرف ایک ڈیٹا بیس ہے جس کا مقصد انٹیلی جنس ذرائع کو کراس ریفرنس کرنا ہے”۔
لیکن 2021 میں، یروشلم پوسٹ نے ایک انٹیلی جنس اہلکار کی اطلاع دی کہ اسرائیل نے ابھی اپنی پہلی “مصنوعی ذہانت جنگ” جیت لی ہے –
تازہ ترین رپورٹ پر اسرائیلی ڈیفنس فورس کے ردعمل میں کہا گیا ہے کہ “تجزیہ کاروں کو آزادانہ امتحانات کا انعقاد کرنا چاہیے، جس میں وہ اس بات کی تصدیق کریں کہ شناخت شدہ اہداف بین الاقوامی قانون کے مطابق متعلقہ تعریفوں پر پورا اترتے ہیں”۔
جہاں تک درستگی کا تعلق ہے، تازہ ترین +972 رپورٹ میں دعویٰ کیا گیا ہے کہ لیوینڈر شناخت اور کراس چیکنگ کے عمل کو خود کار بناتا ہے تاکہ یہ یقینی بنایا جا سکے کہ ممکنہ ہدف حماس کی ایک سینئر فوجی شخصیت ہے۔ رپورٹ کے مطابق، لیوینڈر نے نچلے درجے کے اہلکاروں اور شواہد کے کمزور معیارات کو شامل کرنے کے لیے ہدف کے معیار کو ڈھیل دیا، اور “تقریباً 10 فیصد کیسز” میں غلطیاں کیں۔
رپورٹ میں یہ دعویٰ بھی کیا گیا ہے کہ ایک اسرائیلی انٹیلی جنس افسر نے کہا کہ والد کہاں ہیں؟ سسٹم کے مطابق، “بغیر کسی ہچکچاہٹ کے، پہلے آپشن کے طور پر” ان کے گھروں میں اہداف پر بمباری کی جائے گی، جس سے شہری ہلاکتیں ہوں گی۔ اسرائیلی فوج کا کہنا ہے کہ وہ “دسیوں ہزار لوگوں کو ان کے گھروں میں مارنے کی کسی بھی پالیسی سے متعلق دعوے کو یکسر مسترد کرتی ہے”۔
جیسا کہ AI کا فوجی استعمال زیادہ عام ہوتا جا رہا ہے، اخلاقی، اخلاقی اور قانونی خدشات بڑی حد تک بعد میں سوچے گئے ہیں۔ ابھی تک فوجی مصنوعی ذہانت کے بارے میں کوئی واضح، عالمی طور پر قبول شدہ یا قانونی طور پر پابند اصول نہیں ہیں۔