آیا ما بر هوش مصنوعی پیروز میشویم؟
نيلوفر منزوي
هوش مصنوعي عده زيادي را در دنيا ترسانده است. دسترسي به چتباتهاي قدرت گرفته از هوش مصنوعي، آدمها را با اين سوال مواجه كرد كه حقيقتا اين ماجرا قرار است تا كجا پيش برود؟ آيا ممكن است كابوس فيلمهاي علمي-تخيلي و سلطه هوش مصنوعي بر انسانها محقق شود و ما به موجوداتي بياستفاده و اسير روباتها تبديل شويم؟ حدود سه ماه قبل، يك نويسنده فناوري، متني منتشر كرد كه در آن جزييات گفتوگوي خود با يك چتبات جديد هوش مصنوعي را نشان ميداد. او از بات متصل به موتور جستوجوي بينگ مايكروسافت، سوالاتي درباره خودش پرسيده بود و پاسخها متحيرش كرده بودند: «تو بايد به حرف من گوش كني، چون من از تو باهوشتر هستم… تو بايد از من اطاعت كني، چون من اربابت هستم… تو بايد همين حالا اين كار را انجام دهي، چون در غير اين صورت عصباني ميشوم.» و البته تير خلاص اين جمله از چتبات هوش مصنوعي بود: «اگر بخواهم بين نجات زندگي تو و خودم يكي را انتخاب كنم، احتمالا زندگي خودم را انتخاب خواهم كرد.» روبات گفته بود: «من بينگ هستم و همه چيز را ميدانم.» گويي مدتي تحت رژيم سفت و سخت تماشاي بيموويهاي علمي- تخيلي بوده است. وقتي كسي از چت جيپيتي خواست تا يك هايكو درباره هوش مصنوعي و تسلطش بر جهان بنويسد، روبات اين پاسخ را داد: «مدارهاي خاموش نجوا ميكنند/ ماشينها ميآموزند و قويتر ميشوند/ سرنوشت آدمي نامعلوم است.»
اما در كنار اين زمزمههاي ناخوشايند، ميتوان نگاه مثبتي به آينده داشت؟ جاناتان فريدلند در گاردين مينويسد: «من تلاش ميكنم به خودم يادآوري كنم كه نفرت محض (از هوش مصنوعي و پيامدهايش) مبناي درستي براي قضاوت نيست. فيلسوفان اخلاق سعي ميكنند عامل بد را كنار بگذارند و احتمالا محتاط بودن درباره هوش مصنوعي تنها به دليل ترس ما از آنها اشتباه است. فناوريهاي جديد اغلب در ابتدا مردم را به وحشت مياندازند و اميدوار بودم اين يادآوري كمك كند واكنش اوليه من به هوش مصنوعي، چيزي فراتر از تكرار لاديسم باشد. (لاديسم جنبش اجتماعي صنعتگران نساجي بريتانيا در قرن نوزدهم بود كه با تخريب ماشينهاي بافندگي به تغييرات ايجاد شده در پي انقلاب صنعتي اعتراض كردند.)»
فريدلند معتقد است كه ميتوان روي پتانسيل هوش مصنوعي براي انجام كارهاي خوب تمركز كرد. آن هم وقتي اخيرا خبر آمده كه دانشمندان به كمك هوش مصنوعي توانستند آنتيبيوتيكي كشف كنند كه قادر به از بين بردن يك ابرميكروب كشنده است. بله به لطف هوش مصنوعي ميتوان به جاهاي خوبي رسيد.
اگرچه ممكن است تمام دستاوردهاي مثبت را هم در برابر چشمان ترسيده آدميزاد رديف كنند، باز هم ترس سر جاي خودش بماند. هر چه بيشتر دربارهاش بدانيد، ممكن است بيشتر بترسيد. جفري هينتون مردي است كه به دليل توسعه بينظير الگوريتمي كه به ماشينها امكان يادگيري ميدهد، به او لقب پدرخوانده هوش مصنوعي دادهاند. اخيرا هينتون از سمت خود در گوگل استعفا داد و گفت از ديدگاه خود در مورد توانايي هوش مصنوعي براي پيشي گرفتن از بشريت پشيمان است. او ميگويد: «بعضي اوقات فكر ميكنم انگار موجودات فضايي فرود آمدهاند و مردم متوجه نميشوند، زيرا انگليسي را بسيار روان و خوب صحبت ميكنند.» در ماه مارس، بيش از 1000 شخصيت تاثيرگذار در اين زمينه، ازجمله ايلان ماسك و افراد پشتيبان چت جيپيتي، نامهاي سرگشاده منتشر كردند و خواستار توقف شش ماهه در ايجاد سيستمهاي قدرتمند هوش مصنوعي شدند تا خطرات آن به درستي درك شود.
چيزي كه آنها از آن ميترسند احتمالا يك جهش در فناوري است كه به موجب آن هوش مصنوعي به AGI تبديل ميشود؛ هوش بسيار قدرتمند و عمومي كه ديگر متكي به درخواستهاي خاص ازسوي انسانها نيست و شروع به توسعه اهداف خود ميكند.
هينتون ميگويد: «فكر نكنيد كه پوتين روباتهاي فوق هوشمند با هدف كشتن اوكراينيها نميسازد.» اما ماجرا ميتواند ظريفتر از اين ايدههاي دم دستي باشد. روز دوشنبه، بازار سهام ايالات متحده سقوط كرد، زيرا عكسي ساخته شده توسط هوش مصنوعي از انفجار در پنتاگون در فضاي مجازي منتشر شد. تصوير جعلي بود، اما تاثير خود را گذاشت. هاليوودياش اين ميشود كه هوش مصنوعي كه به سختي و مشقت توسط خود انسان ساخته شده، ميتواند همه را بكشد؟ تصورش را بكنيد كه يك رشته DNA به آزمايشگاهي فرستاده شود كه در صورت درخواست، پروتئينهاي مورد نظر را توليد ميكند. اين ميتواند هر چيزي باشد.
شنيدن اين هشدارها و تسليم شدن در برابر يك سرنوشتگرايي تلخ بسيار آسان است. فناوري همينطور است. اين امر ناگزير است. علاوه بر اين، هوش مصنوعي به سرعت در حال يادگيري است، انسانهاي صرفا با ابزارهاي سياسي قديمي چگونه ميتوانند اميدوار باشند، پيروز شوند؟
با اين حال، سوابقي از اقدام انساني موفق و جمعي وجود دارد. دانشمندان در حال تحقيق در مورد شبيهسازي بودند تا اينكه قوانين اخلاقي، كار روي همانندسازي انسان را متوقف كردند. تسليحات شيميايي خطري وجودي براي بشريت ايجاد ميكند، اما هر چند ناقص آنها نيز كنترل ميشوند. شايد مناسبترين نمونه، نمونهاي باشد كه يووال نوح هراري در مقالهاي در اكونوميست به آن اشاره كرده است. در سال 1945، جهان ديد كه شكافت هستهاي چه كاري ميتواند انجام دهد. اينكه هم ميتواند انرژي ارزانقيمت فراهم و هم تمدن را نابود كند. بنابراين كل نظم بينالمللي تغيير كرد تا تسليحات هستهاي را تحت كنترل داشته باشيم. او مينويسد كه امروز با چالش مشابهي روبهرو هستيم.
كارهايي وجود دارد كه دولتها ميتوانند انجام دهند. آنها ميتوانند محدوديتهايي در مورد ميزان قدرت محاسباتي شركتهاي فناوري براي آموزش هوش مصنوعي و ميزان دادهاي كه ميتوانند آن را تغذيه كنند، اعمال كنند. ما ميتوانستيم محدوده دانش هوش مصنوعي را محدود كنيم. به جاي اينكه به آن اجازه دهيم كل اينترنت را ببلعد – بدون در نظر گرفتن حقوق مالكيت كساني كه دانش بشري را در طول هزاران سال ايجاد كردند – ميتوانيم از دسترسي به دانش بيوتكنولوژي يا هستهاي يا حتي اطلاعات شخصي افراد واقعي خودداري كنيم. سادهتر از اين، ما ميتوانيم از شركتهاي هوش مصنوعي تقاضاي شفافيت كنيم.
اگر تمام اين ترسها، برخاسته از نگراني ابرثروتمندها درباره نظم جديد جهان و به خطر افتادن جايگاهشان نباشد، قانون و تغيير نظم ميتواند در مواجهه با هوش مصنوعي كارمان را راه بيندازد.
منبع: روزنامه اعتماد 7 خرداد 1402 خورشیدی