قرارداد اجتماعی جدید برای عصر هوش مصنوعی
براي همه به يك اندازه
كريس كرميداس كورتني
جو ليتوبارسكي
عصر هوش مصنوعي (AI) نه تنها نزديك است، البته در حال حاضر گويي خيلي وقت است از راه رسيده است. بدون شك هماكنون هم زندگي ما را متحول كرده و ارزشها، قوانين و هنجارهاي اجتماعي ما را بيش از پيش به چالش خواهد كشيد. واقعيت اين است كه ما به يك قرارداد اجتماعي جديد براي ورود به عصر هوش مصنوعي نياز داريم. دقت كنيد اكنون تازه به سرآغاز مسيري رسيديم كه خيلي پيشتر آغاز شده بود، به طور مثال تحقيقات روي شبكههاي عصبي سايبرنتيك در قرن گذشته و در آغازين سالهاي دهه پنجم قرن بيستم (حدودا سال 1940 ميلادي) آغاز شد، اما تركيب مجموعههاي داده عظيم و پيشرفت علوم موازي و رشد قدرت پردازش كامپيوترها منجر به يك اتفاق هيجانانگيز و عميق در يادگيري ذهن ماشين شد كه ساير صنايع را به كل متحول كرد.
اين روزها هوش مصنوعي در انواع محصولات مصرفي كه ما براي كار و اوقات فراغت استفاده ميكنيم حضور پررنگي دارد. به وضوح در مورد پيشرفت چشمگير هوش مصنوعي تبليغات وجود دارد و سرمايهداران دست به شانتاژ عميق خبري در اين حوزه ميزنند، اما پيشرفتهاي بزرگ نيز قابل اغماض نيستند. برخي معتقدند توان اقتصاد مبتني بر هوش مصنوعي به اين معناست كه ما در يك حباب حدس و گمان قرار داريم و انتهاي راه مشخص نيست. حتي اگر اين موضوع صحت داشته باشد، ما هنوز بايد بهطور عمومي در مورد تاثيرات اجتماعي ميانمدت اين فناوريها بحث كنيم. به هر حال، آشوب حباب دات كام (بحران اقتصادي در خلال سالهاي ۱۹۹۵ تا ۲۰۰۰ ميلادي) در دهه 1990 مانع از تغيير اساسي اينترنت در جامعه مدرن نشد. در واقع، پيشبيني ميشود كه سال 2024 سالي باشد كه ما از صحبت بيشتر در مورد هوش مصنوعي به فراگير شدن آن در زندگي خود تغيير ميكنيم.
خطرات هوش مصنوعي: ترس از منسوخ شدن
مزاياي اجتماعي و اقتصادي ميتواند بسيار زياد باشد، اما خطرات ممكن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثير هوش مصنوعي بر انتخابات توسط كارشناسان براي سالها پيشبيني شده است و نگرانيها در مورد اختلالات اقتصادي و تغييرات شديد در بازار كار باعث ايجاد اضطراب اضافي در نظم اجتماعي ميشود كه در حال حاضر هم حتي نشانههايي از استرس شديد را ميان افراد شاغل و نيروهاي كار نشان ميدهد. در اروپا، تقريبا نيمي از افراد خانوادههاي در سن كار در كشورهاي OECD (سازمان توسعه و همكاري اقتصادي بينالمللي شامل 38 عضو) از نظر مالي شكننده هستند و شبح تاريك از دست دادن شغل به دليل رشد پديده هوش مصنوعي در حال حاضر به عنوان يك عامل نگرانكننده براي كارگران در سراسر جهان ثبت شده است.
يك نظرسنجي گالوپ در سال 2023 در ايالاتمتحده نشان داد كه 22درصد از كارگران از منسوخ شدن شغل آنها توسط فناوريهاي جديد مانند هوش مصنوعي ميترسند كه نسبت به سال 2021 شاخص اين نگراني 7درصد افزايش يافته است. اين پديده و به عبارتي ترس جديد به اختصار FOBO ناميده ميشود، به اين پديده ترس از منسوخ شدن مشاغل ميگويند. در اتحاديه اروپا، ترس از پديده فوبو ممكن است حتي شديدتر باشد، زيرا يك نظرسنجي يوروبارومتر در سال 2017 نشان داد كه 72درصد از كارگران اروپايي ميترسند فناوريهاي جديد «شغل مردم را بدزدند.»
مطالعات درخصوص ركود بزرگ و ظهور فاشيسم در دهه 1930 خطراتي را براي جامعه نشان ميدهد كه بخش عمدهاي از جامعه معيشت خود را از دست ميدهند. اضطراب گسترده زمينه مساعدي را براي پوپوليستها و عوامفريبي اقتدارگرا براي به دست آوردن قدرت ايجاد ميكند و اين چالش بزرگي براي دموكراسي است كه برابري در جامعه و حاكميت قانون را به خطر مياندازد.
بيشتر مطالعات در زمينه هوش مصنوعي و بازارهاي كار نشان ميدهد كه تاثير كلي كمتري بر نرخ اشتغال دارد، اما تعداد قابلتوجهي از كارگران ممكن است به آموزشهاي جديد نياز داشته باشند تا همچنان قابل اشتغال به كار را داشته باشند.
ساعات كار طولانيتر
چه كسي مسووليت پرداخت اين هزينهها را به عهده خواهد گرفت؟ تكليف افرادي كه نميتوانند يا در اين بازآموزي شركت داده نميشوند، چيست؟ مطالعهاي در سال 2023 توسط گلدمن ساكس نشان داد كه تقريبا دوسوم مشاغل در اتحاديه اروپا و ايالاتمتحده تحتتاثير هوش مصنوعي قرار ميگيرند و اين ميتواند جايگزين يكچهارم مشاغل فعلي شود. همان مطالعه همچنين به افزايش 7درصدي توليد ناخالص داخلي جهاني و ايجاد مشاغل جديد اشاره ميكند كه شايد جايگزين بسياري از موقعيتهاي ازدست رفته در دوران گذار شود.
مطالعات مقايسهاي توسط سازمان بينالمللي كار، بانك مركزي اروپا و صندوق بينالمللي پول نيز يافتههاي مشابهي را نشان ميدهند، اما همين نتايج مطالعه به ندرت به عناوين روشن براي عموم تبديل ميشود. حتي زماني كه آنها آزادانه و بدون جهتگيري منتشر ميشوند، مردم به آنها بياعتماد هستند، زيرا آنان از سمت همان صداهايي ميآيند كه به آنها اطمينان داده بودند كه بخش مالي نيازي به مقررات قوي در پيش از بحران اقتصادي سال 2008 ندارند.
علاوه بر اين، بدون مشاهده سياستهاي مشخص براي اطمينان از نتايج مثبت و فراگير براي انتقال هوش مصنوعي، نميتوان مردم را به دليل بدبيني آنها سرزنش كرد. مردم زماني را به خاطر ميآورند كه به آنها گفته شد فناوري زندگي آنها را آسانتر ميكند، حجم كاري آنها را كاهش ميدهد و افراد با اتكا به اين فناوريها زمان بيشتري را براي كارهاي شخصي خود آزاد ميكنند. درعوض آنچه كه در عمل اتفاق افتاد كاملا برعكس بود، پيدايش فناوريهاي جديد باعث شد آنها حتي ساعتهاي طولانيتري كار كنند و كارفرمايان را قادر ميسازد تا آنها را دقيقتر زيرنظر داشته باشند و حتي آنها را در زمان استراحتشان موظف به كار كنند.
وحشت از آينده
پديده فوبو باعث ميشود امروزه بسياري از شهروندان به جاي اعتماد به نفس، با ترس و وحشت به آينده نگاه كنند، زيرا بسياري از پيشبينيهاي قبلي آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولتها و نهادها پاسخ دقيق مدنظر آنها را ارايه ندهند، پوپوليستها و بازيگران سياسي متمايل به اقتدارگرايي ميدان را در دست خواهند گرفت. عموم مردم با اين پرسش مواجه ميشوند كه آيا باز هم ميتوانم كار كنم؟ آيا براي تغذيه و هزينه اجاره خانه خانوادهام به اندازه كافي درآمد كسب خواهم كرد؟ اين براي چه مدت دوام خواهد داشت؟ آيا زندگي من 10 سال ديگر بهتر خواهد شد يا بدتر؟ در مورد زندگي فرزندانم چطور؟ آيا ثروتمندان ثروتمندتر ميشوند درحالي كه فقيرها فقير ميمانند؟
عصر هوش مصنوعي جنبههايي از زندگي ما را
به گونهاي متحول خواهد كرد كه ارزشها، قوانين و هنجارهاي اجتماعي ما را به راستي به چالشهايي جديد ميكشد كه پيش از آن هيچ تجربهاي از نحوه مواجهه با آن نداريم، اما هنوز مشخص نيست كه آيا عصر جديد در جهت برابري و رفاه بيشتر رقم ميخورد يا خير و قضيه كاملا برخلاف تصور عمومي است. باتوجه به تجربيات تاريخي اخير در حوزه توسعه فناوري و جامعه، چشمانداز روشني وجود نخواهد داشت مگر اينكه ما يك تلاش آگاهانه و جمعي انجام دهيم. به همين دليل است كه ما به يك قرارداد اجتماعي جديد براي ورود به عصر هوش مصنوعي نياز داريم.
اختراع آينده
دنيس گابور، برنده جايزه نوبل، نويسنده كتاب «اختراع آينده» (1963) يك جمله طلايي در اين خصوص دارد: «آينده را نميتوان پيشبيني كرد، اما آينده را ميتوان اختراع كرد.» درحالي كه يك قرارداد اجتماعي ذاتا يك تلاش جمعي براي بحث، ساختن و توافق بر سر هنجارها و ارزشهاي اجتماعي است، چند سوال كليدي را ميتوان شناسايي كرد. انسان محصور در حلقه يا انسان در كنترل؟ ممكن است خلبانان خودكار بتوانند هواپيماها را به پرواز درآورند اما انسانها بايد هميشه در كابين خلبان باشند. رويكرد انسان تحت كنترل، مسووليتپذيري انسان را درقبال تصميمات اتخاذ شده توسط و با هوش مصنوعي كه ميتواند بر زندگي، سلامت و دارايي تاثير بگذارد، تضمين ميكند. قوانين اتحاديه اروپا در حال حاضر محافظت در برابر نظارت و تصميمگيري خودكار را ارايه ميدهد، اما با فراگيرتر شدن ابزارهاي مبتني بر هوش مصنوعي، ممكن است نياز به شفافسازي و حتي گسترش اين حمايتها داشته باشيم، به ويژه در مواردي كه تصميمات بر كرامت انساني در استخدام، مراقبتهاي بهداشتي، آموزش و پرورش و مسائل مالي تاثير ميگذارند. به عنوان مثال، «مديريت الگوريتمي كارگران» به خودي خود يك پلتفرم مشكلساز در عصر حاضر است، اكنون بايد از خود بپرسيم كه آيا از پذيرش مديريت هوش مصنوعي كارگران در آينده خوشحال خواهيم بود يا اين تبديل به يك نگراني عميق خواهد شد؟ و بعد از آن رابطه بين مردم و پديده هوش مصنوعي چگونه خواهد بود؟ چگونه ميتوانيم مردم را از خطر سلطه يك هوش برتر ايمن نگه داريم و اطمينان حاصل كنيم كه پيشرفتهاي فناوري جديد با ارزشهاي جوامع ما همسو هستند؟ در سادهترين عبارت، اين به معناي موافقت، تدوين و اجراي مجموعهاي از قوانين است كه نشان ميدهد هوش مصنوعي چه كاري را ميتواند انجام دهد و چه كاري را نميتواند انجام دهد و انسانها چگونه ميتوانند از آن استفاده كنند يا ممكن است در جاهايي تصميم بگيرند كه آن را كنار بگذارند. اين بايد شامل نياز به رضايت انسان در مورد اينكه چگونه و چه زماني ممكن است به هوش مصنوعي اجازه داده شود تا در تعاملات يك فرد با دنياي ديجيتال واسطه شود، باشد تا مبادا عامليت انساني به خطر بيفتد.
آموزش و هوش مصنوعي
چگونه ميتوانيم سيستمهاي آموزشي را براي تشويق همكاري انسان و هوش مصنوعي به جاي جايگزيني انسان با هوش مصنوعي طراحي كنيم؟ قطعا همهچيز نيازي به استفاده از هوش مصنوعي ندارد و سيستمهاي آموزشي بايد به آموزش مهارتهاي اساسي ادامه دهند. با اين وجود، به وضوح آموزش و يادگيري مادامالعمر توسط فناوريهاي هوش مصنوعي تغيير مييابند كه اجازه ميدهد شخصيسازي بيشتر متناسب با رويكردهاي يادگيري تكتك دانشآموزان باشد.
دانشآموزان در هر سني بايد آموزش ببينند و با سيستمهاي هوش مصنوعي كار كنند، ازجمله نحوه تعامل انتقادي و اخلاقي با الگوريتمهاي يادگيري عميق و ساير فناوريهاي هوش مصنوعي. با توجه به تقاضاهاي بسيار زياد در سيستمهاي آموزشي، اين امر مستلزم سرمايهگذاري عمومي استراتژيك و تمركز بر آموزش معلمان است.
كارگران و هوش مصنوعي
چگونه ميتوانيم يك انتقال عادلانه را براي كارگران تضمين كنيم؟ در بازار كار، نقشهاي شغلي بايد مانند هميشه با فناوريهاي جديد تكامل يابد. اين ممكن است به معناي ايجاد موقعيتهاي جديدي باشد كه بر همكاري انسان و هوش مصنوعي تمركز ميكند، از جمله اطمينان از اينكه سيستمهاي هوش مصنوعي همانطور كه درنظر گرفته شده عمل ميكنند و مسوولانه استفاده ميشوند.
دولتها و بخش خصوصي بايد با اتخاذ شيوههاي صحيح و آموختهشده از انتقال به يك دوران جديد با حداكثر صيانت از حقوق افراد و همياري يكديگر به به كارگران كمك كنند تا در يك گذار عادلانه سازگار شوند كه بيشترين بخشها را در معرض پيشگيري از مخاطرات قرار دهند، همچنين به موازات آن مهارتهاي گسترده موردنياز براي اطمينان از استفاده مسوولانه از هوش مصنوعي را توسعه دهند.
ارزشهاي انساني و هوش مصنوعي
از چه تواناييها و چه ارزشهاي انساني ميخواهيم محافظت كنيم؟ انسانها براي كار، زندگي نميكنند بلكه براي رفاه زندگي كار ميكنند، اما ما انسانها از داشتن احساس هدف و رسيدن به اهدافمان در زندگي معنا ميگيريم. اگر هوش مصنوعي يك صنعت را به شدت تغيير دهد و اكثر كارگران براي كارهاي ديگر مناسب نباشند، چگونه ميتوانند بدون كار يا دستاوردهاي مشابه از زندگي خود معنايي بگيرند؟ هوش مصنوعي در حال حاضر هنر و موسيقي خود را ميسازد درحالي كه بيشتر انسانها براي انجام فعاليتهاي خلاقانه و رضايتبخش كمتر تلاش ميكنند.
آيا مهارتهاي خاصي وجود دارد كه بشر بخواهد آنها را حفظ كند و تا قرنها فعاليت حرفهاي و فرهنگي از بين نرود؟ در بسياري از زمينههاي زندگي بشر، ممكن است براي ما كاملا مشروع باشد كه بخواهيم از رويكردهاي «ارگانيك» يا «زيستي» بدون هوش مصنوعي محافظت كنيم، درست همانطور كه برخي از كشورهاي اتحاديه اروپا قوانيني در مورد زبانها و توليدات فرهنگي دارند. حتي اگر بخواهيم به مصرفكنندگان آزادي انتخاب بدهيم، بايد درنظر بگيريم كه آيا به قوانيني در مورد برچسبگذاري محتواي توليد شده توسط هوش مصنوعي نياز داريم تا انتخاب مصرفكننده معنادار باشد.
چگونه ميتوانيم انتقال هوش مصنوعي را فراگير كنيم؟ در حال حاضر آگاهي بيشتري در مورد خطرات سوگيري الگوريتمي و تبعيض الگوريتمي وجود دارد، اما اين چالشها با پذيرش گسترده فناوريهاي يادگيري ماشين تشديد خواهد شد. افزايش تنوع در سراسر اكوسيستم هوش مصنوعي، از بخشهاي تحقيقاتي گرفته تا هياتهاي اجرايي، به حمايت از انتقال هوش مصنوعي فراگيرتر و همچنين تمركز بر تنوع بيشتر در مجموعه دادههاي آموزشي كمك ميكند.
چگونه از عقب ماندن مردم جلوگيري كنيم؟ اين انتقال فناوري ممكن است با امواج قبلي متفاوت باشد، زيرا ميتواند بر مشاغل حرفهاي بسيار ماهر كه قبلا در برابر اتوماسيون «ايمن» تلقي ميشدند نيز تاثير بگذارد.
با پيشرفت تكنولوژي، همه افراد به طور بالقوه درمعرض خطر احساس منسوخ شدن و «جاي ماندن» هستند. بنابراين، ما بايد هميشه به ياد داشته باشيم كه انسانها به خودي خود يك هدف هستند و هر پيشرفتي كه مردم را پشت سر بگذارد، پيشرفت نيست. به جاي پذيرش اين فرض كه انسانها بايد با اتوماسيون رقابت كنند، سيستمهاي رفاهي و حمايتهاي كارگري بايد براي حمايت از زمان و فضاي خلاقانهاي كه مردم به آن نياز دارند وفق دهند تا هوش فرهنگي و اجتماعي انساني غني و متنوعي را توليد كنند كه مدلهاي يادگيري عميق آن را بازسازي كرده و در خروجي هوش مصنوعي تركيب ميكنند.
جعبه سياه هوش مصنوعي
آيا تركيبي از خدمات پايه جهاني (UBS) و درآمد پايه جهاني (UBI) وجود دارد كه رفاه و كرامت انسان را حفظ كند؟ شايد اين ميتواند تا حدي توسط نوعي ماليات توسط هوش مصنوعي تامين شود. چگونه ميتوانيم تضمين كنيم كه «توليدكنندگان دادهها به عنوان نيروي كار» با پرداخت عوارض و ماليات به طور عادلانه با نيروي كار انساني رقابت كنند؟ همانطور كه «اي گلن ويل» و «جارن لنير» از پيشگامان فناوري در سال 2018 اين نظريه را مطرح ميكنند كه فناوريهايي مانند الگوريتمهاي يادگيري عميق و شبكههاي عصبي امروزي براي انجام كارهاي سنگين به «داده به عنوان كار» متكي هستند پس صراحتا اين نكته قابل تكرار است كه مدلهاي يادگيري عميق بدون دادههاي آموزشي توليد شده توسط انسان نميتوانند كاري را كه انجام ميدهند تكميل كنند. حتي دادههاي مصنوعي يا دادههاي آموزشي توليد شده توسط مدلهاي هوش مصنوعي، درنهايت محصول دادههاي اوليه انساني به عنوان نيروي كار است.
تصميمگيري در سيستمهاي هوش مصنوعي مانند يك «جعبه سياه» درون هواپيماها و زيردرياييهاست، اما سياستگذاران اين عرصه ميتوانند با طراحي مقرراتي كه چانهزني جمعي را بين سازمانهايي كه نماينده كارگراني كه دادههاي آموزشي را ايجاد ميكنند و صاحبان مدلهاي هوش مصنوعي كه به صورت تجاري از اين دادهها بهرهبرداري ميكنند، تسهيل كنند و اين روند به ايجاد شفافيت در مدلهاي تعاملي كمك كند.
چگونه ميتوانيم سيستمهاي هوش مصنوعي پايدار را در يك اقتصاد زنجيروار كه به صورت يك چرخه سلسله مراتبي شكل يافته است، جانمايي كنيم؟ الگوريتمهاي يادگيري عميق به منابع محاسباتي قابلتوجهي نياز دارند كه انرژي زيادي دارند و همچنين روي سختافزاري اجرا ميشوند كه به مواد خام استخراج شده از زمين نياز دارد. اين يكي از دلايلي است كه وقتي رويكردهاي ارزانتر (ازجمله رويكردهاي الگوريتمي ارزانتر) به همان خوبي كار را انجام ميدهند، درنظر داشته باشيد كه هوش مصنوعي به همه چيز اتكاي منطقي اقتصادي يا زيست محيطي ندارد. با اين حال، در جايي كه يك مورد مسوول براي هوش مصنوعي وجود دارد، چگونه ميتوانيم اطمينان حاصل كنيم كه باعث انتشار كربن و استخراج منابع مخرب زيست محيطي نميشود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعي بهطور بالقوه ميتواند به جوامع كمك كند تا انرژي كارآمدتر و پايدارتر شوند.
چه كسي صاحب نوآوريهاي ايجاد شده توسط هوش مصنوعي خواهد شد؟ در سال 2021، آفريقاي جنوبي اولين كشوري بود كه به يك مدل هوش مصنوعي جديد حق اختراع اعطا كرد، اگرچه ساير دفاتر ثبت اختراع در سراسر جهان در اين خصوص بسيار محتاطتر عمل كردند. در دسامبر 2023 سرويس گوگل ديپ مايند يك راهحل كاملا جديد براي يك مساله رياضي ارايه كرد، اما از ثبت حق اختراع نوآوري هوش مصنوعياش در آن زمان ايالاتمتحده بازماند، يك نكته ديگر كه ضرورت دارد مغفول نماند اين مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همانطور كه سيستمهاي هوش مصنوعي شروع به توليد نوآوريهايي مانند داروهاي جديد ميكنند، چگونه سيستمهاي مالكيت معنوي تضمين ميكنند كه ابزار نوآوري به نفع همه است و صرفا به طور دايمي توسط ثروتمندترينها تسخير نميشود؟ آيا به هوش مصنوعي عمومي نياز داريم؟
همانطور كه مدلهاي هوش مصنوعي پيچيدهتر ميشوند، به منابع محاسباتي بيشتري نياز خواهند داشت كه در حال حاضر به يك مانع اقتصادي براي دسترسي تبديل شده است.
تاريخچه طولاني موسسات عمومي وجود دارد كه براي ارايه دسترسي رايگان يا مقرون بهصرفه به خدمات اطلاعاتي، از كتابخانههاي عمومي تا خدمات پخش عمومي، طراحي شدهاند. به جاي يك سيستم دو لايه، با پيشرفتهترين هوش مصنوعي پنهان در پشت ديوارهاي پرداخت و دسترسي آزاد (يا محدود) به هوش مصنوعي اوليه، آيا همه شهروندان نبايد به هوش مصنوعي عمومي پيشرفته دسترسي داشته باشند.
به نظر ميرسد با روند كنوني اتحاديه اروپا بايد شهروندانش را در يك بحث عمومي گسترده و پويا درمورد سوالات فوق و هر سوال ديگري كه پيش ميآيد، مشاركت دهد.
در كنار سياستهاي سنتي نمايندگي، كنفرانس آينده اروپا و پانلهاي شهروندان اروپايي نشان ميدهد كه چگونه فرآيندهاي سياسي مشورتي ممكن است به شناسايي و حفظ پاسخها در روح دموكراتيك قرارداد اجتماعي كه توسط ژان ژاك روسو تدوين شده، كمك كند.
يك ضربالمثل قديمي از روزهاي اوليه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده يا همان (GIGO) به اين معني كه خروجي يك كامپيوتر فقط به اندازه ورودي داده خوب است به اين معني كه خروجيها به كيفيت وروديها بستگي مستقيم دارند. هوش مصنوعي به سادگي هر چه تمامتر ميتواند دايره باطل مثال GIGO را نشان دهد. اگر انسانها را مجبور به رقابت با اتوماسيون كنيم، جامعه را تنزل خواهيم داد كه نه تنها دادههاي آموزش هوش مصنوعي آينده بلكه زمينه اجتماعي را كه شركتها و دانشمنداني كه سيستمهاي هوش مصنوعي ميسازند از آن بيرون ميآيند را نيز تخريب ميكنند، اين قطعا همان آيندهاي است كه به فاجعه ختم خواهد شد. اما آيندهاي جايگزين وجود دارد كه در آن هوش مصنوعي هوش اجتماعي انسان را در يك دايره فضيلتمند گسترش داده و از آن پشتيباني ميكند كه به درون خود بازخورد ميدهد و شكوفايي بشريت را تشويق ميكند، البته خوشبختانه همچنان در آغاز راه هستيم و هنوز فرصت كافي داريم تا آينده و سرنوشتمان را خودمان انتخاب كنيم.
اين مطلب را با گفتهاي از ژان ژاك روسو درخصوص قرارداد اجتماعي خاتمه ميدهيم: «در حقيقت، قوانين هميشه براي مالكان مفيد هستند و براي كساني كه چيزي ندارند مضر. از آن نتيجه ميشود كه دولت اجتماعي تنها زماني براي مردمان سودمند است كه همه چيزي داشته باشند و هيچكس بيش از حد نداشته باشد.»
مشاور ارشد، دفاع از دموكراسي
محقق دكتراي تاريخ فناوري و دموكراسي، دانشگاه ماستريخت
مترجم: كامران مشفق آراني
منبع:
https: //defenddemocracy.eu/a-new-social-contract-for-the-age-of-artificial-intelligence/
عصر هوش مصنوعي جنبههايي از زندگي ما را به گونهاي متحول خواهد كرد كه ارزشها، قوانين و هنجارهاي اجتماعي ما را به راستي به چالشهايي جديد ميكشد كه پيش از آن هيچ تجربهاي از نحوه مواجهه با آن نداريم، اما هنوز مشخص نيست كه آيا عصر جديد در جهت برابري و رفاه بيشتر رقم ميخورد يا خير و قضيه كاملا برخلاف تصور عمومي است.
دنيس گابور، برنده جايزه نوبل، نويسنده كتاب «اختراع آينده» (1963) يك جمله طلايي در اين خصوص دارد: «آينده را نميتوان پيشبيني كرد، اما آينده را ميتوان اختراع كرد.» درحالي كه يك قرارداد اجتماعي ذاتا يك تلاش جمعي براي بحث، ساختن و توافق بر سر هنجارها و ارزشهاي اجتماعي است.
خوشبختانه همچنان در آغاز راه هستيم و هنوز فرصت كافي داريم تا آينده و سرنوشتمان را خودمان انتخاب كنيم. اين مطلب را با گفتهاي از ژان ژاك روسو درخصوص قرارداد اجتماعي خاتمه ميدهيم: «در حقيقت، قوانين هميشه براي مالكان مفيد هستند و براي كساني كه چيزي ندارند مضر. از آن نتيجه ميشود كه دولت اجتماعي تنها زماني براي مردمان سودمند است كه همه چيزي داشته باشند و هيچكس بيش از حد نداشته باشد.»
منبع: روزنامه اعتماد 2 اسفند 1402 خورشیدی