اوپن اے آئی نے طبی ریکارڈز شیئر کرنے کی سروس متعارف کرا دی
Screenshot
مصنوعی ذہانت کی اسٹارٹ اپ کمپنی نے ChatGPT ہیلتھ کے نام سے ایک نیا فیچر شروع کیا ہے جو طبی ڈیٹا کا تجزیہ کرتا ہے، تاہم کمپنی کا کہنا ہے کہ اس کا مقصد بیماریوں کی تشخیص نہیں بلکہ “میڈیکل رپورٹس اور لیب نتائج کو سمجھنے میں مدد دینا” ہے۔
ماہرین نے اس فیچر پر شدید تحفظات کا اظہار کیا ہے اور یہ سہولت فی الحال یورپی یونین میں دستیاب نہیں، کیونکہ اس سے متعلق قانونی اور اخلاقی سوالات اٹھائے جا رہے ہیں۔ کمپنی اگرچہ پرائیویسی کے تحفظ کی یقین دہانی کراتی ہے، لیکن ماہرین ممکنہ غلطیوں اور خطرات کی پیش گوئی کر رہے ہیں۔
آج کل ڈاکٹر اور مریض کے درمیان مصنوعی ذہانت بھی شامل ہو چکی ہے۔ دنیا بھر میں 23 کروڑ سے زائد افراد ہر ہفتے اپنی صحت سے متعلق سوالات کے لیے ChatGPT استعمال کرتے ہیں۔ بہت سے حلقوں کے لیے یہ رجحان تشویش کا باعث ہے اور تیزی سے بڑھ رہا ہے۔ بدھ کے روز اوپن اے آئی نے ایک نئی سہولت کا اعلان کیا جس کے تحت صارفین کو اپنی طبی تاریخ چیٹ بوٹ کے ساتھ شیئر کرنے کی ترغیب دی جاتی ہے۔ اگرچہ کمپنی کا دعویٰ ہے کہ یہ نظام تشخیص کے لیے نہیں بنایا گیا، مگر ماہرین متفق ہیں کہ اس فیچر سے کئی تکنیکی، قانونی اور اخلاقی خدشات جنم لیتے ہیں۔
ChatGPT ہیلتھ ایک “نجی اور خفیہ کردہ” ڈیجیٹل ماحول ہے جو اسسٹنٹ کے اندر موجود ہوگا۔ اس کا مقصد صارف کو اپنی طبی رپورٹس بہتر طور پر سمجھنے، صحت کے ڈیٹا کو فالو کرنے اور اگلی ڈاکٹر ملاقات کی تیاری میں مدد دینا ہے۔ صارفین اس میں اپنی طبی معلومات اپ لوڈ کر سکیں گے، جبکہ ایپل ہیلتھ، مائی فٹنس پال اور پیلوٹون جیسی ایپس سے ڈیٹا بھی منسلک کیا جا سکے گا۔ اس نظام کی تیاری میں 260 سے زائد طبی ماہرین نے حصہ لیا ہے، تاہم ابتدائی مرحلے میں اس تک رسائی محدود ہوگی۔
طبی شعبے میں توسیع
سرمایہ کاری کو منافع میں بدلنے کے لیے اوپن اے آئی صحت کے شعبے میں اپنی موجودگی بڑھا رہی ہے۔ اس شعبے میں پہلے ہی ایسی مصنوعی ذہانت موجود ہے جو بیماریوں کے خطرات کی پیش گوئی اور انتظامی امور میں استعمال ہو رہی ہے۔ محقق شالینی کُراپتی کے مطابق، محدود طبی سہولیات، سماجی دباؤ اور گھر بیٹھے جواب ملنے کی سہولت رکاوٹوں کو کم کرتی ہے اور اسی لیے اس ٹیکنالوجی کو تیزی سے اپنایا جائے گا۔ اسی موقع کو دیکھتے ہوئے اوپن اے آئی نے OpenAI for Healthcare کے نام سے اداروں کے لیے بھی نئی مصنوعات کا اعلان کیا ہے۔
ماہرین یاد دلاتے ہیں کہ چیٹ بوٹس میں استعمال ہونے والے لینگویج ماڈلز احتمالات پر کام کرتے ہیں۔ یعنی وہ جملے اس لیے بناتے ہیں کہ وہ معقول لگیں، نہ کہ اس لیے کہ وہ لازماً درست ہوں۔ اسی خامی کو “ہیلوسینیشن” کہا جاتا ہے، جو صحت جیسے حساس شعبے میں خطرناک ثابت ہو سکتی ہے۔ بارسلونا سپرکمپیوٹر سینٹر کے ڈائریکٹر اور آئی سی آر ای اے کے پروفیسر الفانسو والینسیا کے مطابق، صحت سے متعلق معاملات میں ChatGPT کا استعمال ممکنہ طور پر نقصان دہ ہو سکتا ہے۔ اسٹینفورڈ اور ہارورڈ کی ایک تحقیق کے مطابق، طبی ماحول میں استعمال ہونے والے اے آئی ماڈلز 22 فیصد کیسز میں اہم سفارشات شامل کرنے میں ناکام رہتے ہیں۔
اگر کوئی صارف اپنی علامات بتائے اور سسٹم غلط علاج تجویز کر دے تو کیا ہوگا؟ اگرچہ اوپن اے آئی کہتی ہے کہ یہ فیچر تشخیص کے لیے نہیں، مگر ماہرین کے مطابق ChatGPT پہلے ہی عملی طور پر ایسا کر رہا ہے۔ والینسیا کے مطابق یہ نظام غلطیاں کرے گا، غلط تشریحات پیدا کرے گا اور ڈاکٹروں کو مشکل صورتحال میں ڈال دے گا۔ ٹیکنالوجی قانون کے ماہر وکیل جارج مورَیل کے مطابق، اس سے ثقافتی اور نسلی تعصبات پر مبنی طبی سفارشات کا خطرہ بھی ہے۔
صحت کے میدان میں ایسی غلطیاں کسی کو اسپتال پہنچا سکتی ہیں اور جان لیوا بھی ہو سکتی ہیں۔ اوپن اے آئی سمیت کئی کمپنیوں کو پہلے ہی ایسے مقدمات کا سامنا ہے جن میں صارفین کی خودکشی سے متعلق معاملات شامل ہیں، بعض کیسز میں چیٹ بوٹ نے متاثرہ افراد کو اپنی نیت اہلِ خانہ سے چھپانے کا مشورہ دیا۔ مورَیل کے مطابق، ذہنی صحت کے بعد اب غلط طبی سفارشات پر بھی قانونی چارہ جوئی ہونا ناگزیر ہے۔
پرائیویسی پر سوال
فی الحال یہ فیچر یورپی یونین میں دستیاب نہیں ہوگا، کیونکہ یہ واضح نہیں کہ آیا یہ جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) اور یورپی اے آئی قانون پر پورا اترتا ہے یا نہیں۔ یورپ میں صحت سے متعلق ڈیٹا کو انتہائی حساس سمجھا جاتا ہے۔ مورَیل کے مطابق، اگر کوئی صارف اپنے والدین یا بچوں کا طبی ریکارڈ شیئر کر دے تو یہ جانچنا مشکل ہوگا کہ آیا اس کے پاس ایسا کرنے کی اجازت تھی یا نہیں۔
کچھ ماہرین کا کہنا ہے کہ یہ فیچر انشورنس کمپنیوں کے لیے فائدہ مند ہو سکتا ہے، تاکہ وہ صارفین کی بہتر پروفائلنگ کر کے پریمیم اور خدمات کو ایڈجسٹ کریں۔ ڈیٹا پروٹیکشن ماہر اور عدالتی ماہر لورا سان میگوئل کے مطابق، یہ اقدام “پرائیویسی پر شدید حملہ” ہے۔
اوپن اے آئی کا کہنا ہے کہ ChatGPT ہیلتھ میں شیئر کی جانے والی حساس معلومات کو دیگر گفتگوؤں سے الگ رکھا جائے گا اور انہیں اے آئی ماڈلز کی تربیت کے لیے استعمال نہیں کیا جائے گا۔ اس طرح کمپنی پرائیویسی کے تحفظ کا دعویٰ کرتی ہے۔ تاہم ماہرین خبردار کرتے ہیں کہ کسی بھی وقت سیکیورٹی بریک ہو سکتی ہے۔ 2023 میں جینیاتی کمپنی 23andMe پر سائبر حملے میں تقریباً 70 لاکھ افراد کا ڈیٹا چوری ہو گیا تھا۔ مورَیل کے مطابق، “یہ صرف وقت کی بات ہے۔ پرائیویسی بڑی حد تک اس لیے ختم ہو چکی ہے کہ ہم سہولت کو ترجیح دیتے ہیں۔”
اگرچہ والینسیا کا ماننا ہے کہ طویل مدت میں ایسی ایپلی کیشنز طبی نظام کا حصہ بن جائیں گی، مگر وہ زور دیتے ہیں کہ اصل ضرورت ایسے اے آئی سسٹمز کی ہے جو اسپتالوں میں ڈاکٹروں کی مدد کریں، مریضوں کے ڈیٹا کی تشریح کریں اور قوانین کے مطابق علاج کے عمل کو بہتر بنائیں۔