stephen hawking

افسوسناک خبر :آئنسٹائن کے بعد دنیا کا سب سے بڑا سائنسدان انتقال کر گیا ، مرنے سے پہلے کون سا بڑا کام کر گیا؟ جانئے

لندن : ممتاز سائنسدان اسٹیفن ہاکنگ 76 برس کی عمر میں انتقال کرگئے۔خاندان کے ترجمان نے اسٹیفن ہاکنگ کے انتقال کی تصدیق کردی۔اسٹیفن ہاکنگ کے آئنسٹائن کے بعد دوسرا بڑا سائنس دان قرار دیا جاتا تھا، ان کا زیادہ تر کام بلیک ہولز اور تھیوریٹیکل کاسمولوجی کے میدان میں ہے۔گزشتہ برس برطانیہ کی کیمبرج یونیورسٹی

کی جانب سے اسٹیفن ہاکنگ کے 1966ء کے پی ایچ ڈی کا مقالہ جاری کیے جانے کے چند ہی دن میں اس نے مطالعے کا ریکارڈ توڑ دیا ہے۔اور چند روز کے دوران اسے 20 لاکھ سے زائد مرتبہ پڑھا گیا اور 5 لاکھ سے زائد لوگوں نے اسے ڈاؤن لوڈ کیا تھا۔اسٹیفن ہاکنگ کی کتاب ‘بریف ہسٹری آف ٹائم’ ایک شہرہ آفاق کتاب ہے جسے ایک انقلابی حیثیت حاصل ہے۔یاد رہے دنیا کے ممتاز سائنس دان اسٹیفن ہاکنگ نے تین اہم چیزوں کا ذکر کرتے ہوئے کہا تھا کہ یہ چیزیں نہ صرف انسانیت کی دشمن ثابت ہوسکتی ہیں بلکہ انسان کو صفحہ ہستی سے بھی مٹاسکتی ہیں۔ اسٹیفن ہاکنگ کائنات کی گتھیوں کو سلجھانے اور بلیک ہولز پر تحقیق کے ساتھ ساتھ اپنی کتابوں، بیماری اور اس عمر میں بھی یاد داشت کے حوالے سے عالمی شہرت رکھتےتھے جب کہ ساتھ ہی وہ دنیا کو خطرات سے بھی آگاہ رکھتے تھے اوراپنی تحقیق سے انہوں نے تین چیزوں کو انسانیت کی تباہی کا ذمہ دار قراردیا تھا۔مصنوعی ذہانت: ہاکنگ کی طرح دنیا کے دوسرے ماہرین بھی فکرمند ہیں کہ کیا انسانوں کی تخلیق مصنوعی ذہانت اگر مضبوط ہوگئی تو وہ انسانی ذہانت کو پیچھے چھوڑدے گی اور شاید انسانوں کی جان کے درپے بھی ہوجائے دسمبر 2014 ہاکنگ نے برطانوی نشریاتی ادارے کو انٹرویو میں کہا تھا کہ یہ مصنوعی ذہانت انسانیت کے لیے ہلاکت خیز ثابت ہوسکتی ہے۔ہاکنگ کی اس بات کی گونج ہمیں ایلون موسک کی باتوں میں بھی سنائی دیتی ہے۔

ارب پتی ایلون اسپیس ایکس اور ٹیسلا موٹرز کے مالک ہیں اور گزشتہ ماہ انہوں نے مصنوعی ذہانت کو ’’انسانیت کے لیے موجود ایک بڑا خطر‘‘ قرار دیا تھا، ہاکنگ اور ایلون اور درجنوں ممتاز سائنسدانوں نے مصنوعی ذہانت کے خطرات اور ممکنہ فوائد پر ایک کھلا خط بھی تحریر کیا ہے، 11 جنوری کو آن لائن شائع ہونے والے اس خط میں کہا گیا ہے کہ مصنوعی ذہانت کے امکانات کی بدولت یہ ضروری ہے کہ اس کے فوائد حاصل کرنے کے ساتھ ساتھ اس کے نقصانات کا بھی بھرپور جائزہ لیا جائے۔دوسری جانب مصنوعی ذہانت پر تحقیق کرنے والے ماہرین زور دیتے ہیں کہ ابھی پریشان ہونے کی کوئی ضرورت نہیں، ان میں سے ایک ڈیمس ہاسابس ہیں جو گوگل ڈیپ مائنڈ سے وابستہ ہیں۔ ڈیب مائنڈ ایک پروگرام ہے جس سے کمپیوٹر خود اپنے آپ سے گیم کھیلتا ہے اور سیکھتا ہے تاہم وہ کہتے ہیں کہ اس موضوع پر بحث شروع کرنا ایک اچھا قدم ہے۔آرٹیفشل انٹیلی جنس کمپیوٹر سائنس کا ایک دلچسپ موضوع ہے اور اس میں الیکٹرانک سرکٹس اور کمپیوٹروں میں اس صلاحیت کی بات کی جاتی ہے جس کے ذریعے وہ انسانی ذہانت کے کسی معمولی درجے تک پہنچ سکیں اور خود سوچ بھی سکیں، اگر کل کوئی کمپیوٹر خودمختار ہوکر وائرس خود بنالے اور دوسرے کمپیوٹر کو بھی تربیت دے سکے تو ہم انسان اس کا مقابلہ شاید ہی کرسکیں، پھر سوچنے سمجھنے والے کمپیوٹرز کے لیے اخلاقی اور عملی حدود کون بنائے گا، یہ خود ایک بہت بڑا سوال ہے۔

انسان کا انسان کو قتل کرنا: ہاکنگ کا کہنا ہے کہ اگر مصنوعی ذہانت ہمیں نہیں مارتی تو خود انسان دوسرے انسان کو مٹانے کے لیے کافی ہے، ان کے مطابق انسان خود انسانیت کا خاتمہ کرسکتا ہے، لندن سائنس میوزیم میں جب ایک ٹیچر نے ان سے سوال کیا کہ آپ کس انسانی کمی کو تبدیل کرنے کے خواہاں ہیں تو ہاکنگ نے جواب دیا کہ انسان پرتشدد رویے کو ختم کرنے میں ناکام رہا ہے۔ اس (تشدد) کا فائدہ اسے اس وقت تھا جب وہ غاروں میں رہتا تھا، جہاں خوراک، زمین اور ساتھی کے لیے تشدد سے کوئی حل نکل سکتا تھا لیکن اب یہ رویہ ہم سب کو تباہ کرسکتا ہے، ہاکنگ اس کے لیے ایٹمی جنگ کا منظرنامہ بھی بیان کرتے ہیں اور کہتے ہیں کہ صرف افہام و تفہیم سے ہی امن اور محبت کا فروغ ہوسکتا ہے۔اسٹیفن ہاکنگ کا کہنا ہے کہ انسانی بقا کے لیے ضروری ہے کہ وہ مستقبل میں دیگرسیاروں اور خلا میں رہائش کی راہ ہموار کرے جب کہ وہ دیگر سیاروں پر رہائش کو انسانیت کا انشورنس قرار دیتے ہیں۔خلائی مخلوق: اسٹیفن ہاکنگ نے 2010 میں کہا تھا اگر کائنات کے کسی گوشے میں کوئی ذہین مخلوق موجود ہے تو انسان دوست نہیں ہوسکتی۔ ان کا کہنا تھا کہ اگر کوئی خلائی مخلوق ہماری زمین پر آئی تو کرسٹوفرکولمبس جیسا ماجرا ہوگا جو اپنے امریکی سرزمین پر اترنے کے باوجود خود امریکیوں کے لیے بہتر رویہ نہیں رکھتا تھا جب کہ ان کا خیال ہے کہ خلائی مخلوق کی آمد کسی حملہ آور کی طرح ہوگی جو علاقے فتح کرنے اور انسانوں کو غلام بنانے کے ساتھ ہمارے وسائل پر بھی قابض ہوجائیں گے۔