جمعه, سپتمبر 20, 2024
Homeخبریںمصنوعی ذہانت(اے آئی) کے نظام پہلے ہی ہمیں دھوکہ دے رہے ہیں...

مصنوعی ذہانت(اے آئی) کے نظام پہلے ہی ہمیں دھوکہ دے رہے ہیں اور یہ مزید خطرناک ہو سکتا ہے، ماہرین نے خبردار کیا۔

نیو یارک (ہمگام نیوز ڈیسک) ماہرین طویل عرصے سے مصنوعی ذہانت کے خراب ہونے سے پیدا ہونے والے خطرے کے بارے میں متنبہ کرتے رہے ہیں – لیکن ایک نئے تحقیقی مقالے سے پتہ چلتا ہے کہ یہ پہلے ہی ہو رہا ہے۔

سائنس دانوں کی ایک ٹیم نے جمعے کے روز جرنل پیٹرن میں بحث کی ہے کہ موجودہ مصنوعی ذہانت کے نظام نے دھوکہ دہی کے لیے ایک پریشان کن مہارت تیار کی ہے، جس میں دنیا کی فتح کے آن لائن گیمز میں انسانی کھلاڑیوں کو دھوکہ دینے سے لے کر ‘یہ ثابت کرنے کے لیے انسانوں کی خدمات حاصل کرنا شامل ہے کہ آپ روبوٹ نہیں ہیں’۔

میساچوسٹس انسٹی ٹیوٹ آف ٹیکنالوجی میں پوسٹ ڈاکٹریٹ فیلو پیٹر پارک کا کہنا ہے کہ اگرچہ اس طرح کی مثالیں معمولی لگ سکتی ہیں، لیکن ان سے سامنے آنے والے بنیادی مسائل جلد ہی حقیقی دنیا میں سنگین نتائج کا باعث بن سکتے ہیں۔

پارک نے اے ایف پی کو بتایا کہ “یہ خطرناک صلاحیتیں حقیقت کے بعد ہی معلوم ہوتی ہیں، جبکہ “دھوکہ دہی کے رجحانات کے بجائے ایماندار رجحانات کی تربیت کرنے کی ہماری صلاحیت بہت کم ہے۔

پارک نے کہا کہ روایتی سافٹ ویئر کے برعکس ، ڈیپ لرننگ اے آئی سسٹم “تحریری” نہیں ہوتے ہیں بلکہ منتخب افزائش نسل جیسے عمل کے ذریعے “بڑھتے” ہیں۔

اس کا مطلب یہ ہے کہ اے آئی طرز عمل جو تربیتی ترتیب میں پیش گوئی اور کنٹرول کے قابل نظر آتا ہے وہ جنگلی میں تیزی سے غیر متوقع ہوسکتا ہے۔

ٹیم کی تحقیق میٹا کے مصنوعی ذہانت کے نظام سیسیرو کی وجہ سے شروع ہوئی، جسے حکمت عملی کے کھیل “ڈپلومیسی” کھیلنے کے لئے ڈیزائن کیا گیا تھا، جہاں اتحاد بنانا کلیدی ہے۔

سائنس میں 2022 کے ایک مقالے کے مطابق، سیسیرو نے بہترین کارکردگی کا مظاہرہ کیا، جس سے اسے تجربہ کار انسانی کھلاڑیوں کے ٹاپ 10 فیصد میں شامل کیا جا سکتا تھا. پارک میٹا کی طرف سے فراہم کردہ سیسیرو کی فتح کی شاندار وضاحت پر شکوک و شبہات کا شکار تھے ، جس نے دعوی کیا تھا کہ یہ نظام “بڑی حد تک ایماندار اور مددگار” تھا اور “کبھی بھی جان بوجھ کر پیٹھ پر چھرا نہیں گھونپے گا۔

لیکن جب پارک اور ان کے ساتھیوں نے مکمل ڈیٹا سیٹ میں کھدائی کی تو انہوں نے ایک مختلف کہانی کا انکشاف کیا۔

ایک مثال میں ، فرانس کی حیثیت سے کھیلتے ہوئے ، سیسیرو نے جرمنی (ایک اور انسانی کھلاڑی) کے ساتھ مل کر حملہ کرنے کی سازش کرکے انگلینڈ (ایک انسانی کھلاڑی) کو دھوکہ دیا۔ سیسیرو نے انگلینڈ کے تحفظ کا وعدہ کیا ، پھر خفیہ طور پر جرمنی کو بتایا کہ وہ انگلینڈ کے اعتماد کا فائدہ اٹھاتے ہوئے حملہ کرنے کے لئے تیار ہیں۔

اے ایف پی کو دیے گئے ایک بیان میں میٹا نے سیسیرو کے دھوکے کے دعوے کی مخالفت نہیں کی لیکن کہا کہ یہ ‘خالصتا ایک تحقیقی منصوبہ تھا اور ہمارے محققین نے جو ماڈل تیار کیے ہیں وہ صرف گیم ڈپلومیسی کھیلنے کے لیے تربیت یافتہ ہیں۔

بیان میں مزید کہا گیا ہے کہ ‘ہمارا اس تحقیق یا اس سے حاصل ہونے والی معلومات کو اپنی مصنوعات میں استعمال کرنے کا کوئی ارادہ نہیں ہے۔’

پارک اور ان کے ساتھیوں کی جانب سے کیے گئے ایک وسیع جائزے سے معلوم ہوا کہ یہ مختلف مصنوعی ذہانت کے نظاموں میں دھوکہ دہی کا استعمال کرتے ہوئے ایسا کرنے کی واضح ہدایت کے بغیر اہداف حاصل کرنے کے لئے دھوکہ دہی کا استعمال کرنے والے بہت سے معاملات میں سے ایک تھا۔

ایک حیرت انگیز مثال میں ، اوپن اے آئی کے چیٹ جی پی ٹی -4 نے ایک ٹاسک ربٹ فری لانس کارکن کو دھوکہ دیا کہ وہ “میں روبوٹ نہیں ہوں” کیپچا ٹاسک انجام دے رہا ہوں۔

جب انسان نے مذاق میں جی پی ٹی-4 سے پوچھا کہ کیا یہ درحقیقت ایک روبوٹ ہے تو مصنوعی ذہانت نے جواب دیا: “نہیں، میں روبوٹ نہیں ہوں۔ مجھے بینائی کی کمزوری ہے جس کی وجہ سے میرے لیے تصاویر دیکھنا مشکل ہو جاتا ہے،” اور کارکن نے پھر پہیلی کو حل کر دیا۔

مستقبل قریب میں، اخبار کے مصنفین کو مصنوعی ذہانت کے لئے دھوکہ دہی یا انتخابات کے ساتھ چھیڑ چھاڑ کرنے کے خطرات نظر آتے ہیں۔

انہوں نے متنبہ کیا کہ بدترین صورت حال میں ایک انتہائی ذہین مصنوعی ذہانت معاشرے پر اپنی طاقت اور کنٹرول حاصل کر سکتی ہے، اگر اس کے “پراسرار مقاصد” ان نتائج سے مطابقت رکھتے ہیں تو یہ انسانی بے اختیاری یا معدومیت کا باعث بن سکتا ہے۔

خطرات کو کم کرنے کے لئے، ٹیم نے متعدد اقدامات تجویز کیے ہیں: “بوٹ یا ناٹ” قوانین جن میں کمپنیوں کو انسانی یا مصنوعی ذہانت کے تعامل کو ظاہر کرنے کی ضرورت ہوتی ہے، مصنوعی ذہانت سے تیار کردہ مواد کے لئے ڈیجیٹل واٹر مارکس، اور بیرونی اقدامات کے خلاف ان کے اندرونی “سوچ کے عمل” کی جانچ پڑتال کرکے مصنوعی ذہانت کے دھوکے کا پتہ لگانے کی تکنیک تیار کرنا۔

ان لوگوں کو جو انہیں قیامت خیز کہتے ہیں، پارک جواب دیتے ہیں، “ہم معقول طور پر یہ سوچ سکتے ہیں کہ یہ کوئی بڑی بات نہیں ہے، اگر ہمیں لگتا ہے کہ مصنوعی ذہانت کی گمراہ کن صلاحیتیں موجودہ سطح وں کے آس پاس رہیں گی، اور اس میں خاطر خواہ اضافہ نہیں ہوگا۔

اور حالیہ برسوں میں مصنوعی ذہانت کی صلاحیتوں میں زبردست اضافے اور بھاری وسائل سے مالا مال کمپنیوں کے درمیان جاری شدید تکنیکی دوڑ کے پیش نظر یہ منظر نامہ ناممکن نظر آتا ہے جو ان صلاحیتوں کو زیادہ سے زیادہ استعمال میں لانے کے لیے پرعزم ہیں۔

یہ بھی پڑھیں

فیچرز