1

قرارداد اجتماعی جدید برای عصر هوش مصنوعی

براي همه به يك اندازه

كريس  كرميداس كورتني

جو ليتوبارسكي

عصر هوش مصنوعي (AI) نه تنها نزديك است، البته در حال حاضر گويي خيلي وقت است از راه رسيده است. بدون شك هم‌اكنون هم زندگي ما را متحول كرده و ارزش‌ها، قوانين و هنجارهاي اجتماعي ما را بيش از پيش به چالش خواهد كشيد. واقعيت اين است كه ما به يك قرارداد اجتماعي جديد براي ورود به عصر هوش مصنوعي نياز داريم. دقت كنيد اكنون تازه به سرآغاز مسيري رسيديم كه خيلي پيش‌تر آغاز شده بود، به ‌طور مثال تحقيقات روي شبكه‌هاي عصبي سايبرنتيك در قرن گذشته و در آغازين سال‌هاي دهه پنجم قرن بيستم (حدودا سال 1940 ميلادي) آغاز شد، اما تركيب مجموعه‌هاي داده عظيم و پيشرفت علوم موازي و رشد قدرت پردازش كامپيوترها منجر به يك اتفاق هيجان‌انگيز و عميق در يادگيري ذهن ماشين شد كه ساير صنايع را به كل متحول كرد.

اين روزها هوش مصنوعي در انواع محصولات مصرفي كه ما براي كار و اوقات فراغت استفاده مي‌كنيم حضور پررنگي دارد. به وضوح در مورد پيشرفت چشمگير هوش مصنوعي تبليغات وجود دارد و سرمايه‌داران دست به شانتاژ عميق خبري در اين حوزه مي‌زنند، اما پيشرفت‌هاي بزرگ نيز قابل اغماض نيستند. برخي معتقدند توان اقتصاد مبتني بر هوش مصنوعي به اين معناست كه ما در يك حباب حدس و گمان قرار داريم و انتهاي راه مشخص نيست. حتي اگر اين موضوع صحت داشته باشد، ما هنوز بايد به‌طور عمومي در مورد تاثيرات اجتماعي ميان‌مدت اين فناوري‌ها بحث كنيم. به هر حال، آشوب حباب دات كام (بحران اقتصادي در خلال سال‌هاي ۱۹۹۵ تا ۲۰۰۰ ميلادي) در دهه 1990 مانع از تغيير اساسي اينترنت در جامعه مدرن نشد. در واقع، پيش‌بيني مي‌شود كه سال 2024 سالي باشد كه ما از صحبت بيشتر در مورد هوش مصنوعي به فراگير شدن آن در زندگي خود تغيير مي‌كنيم.

خطرات هوش مصنوعي: ترس از منسوخ شدن

مزاياي اجتماعي و اقتصادي مي‌تواند بسيار زياد باشد، اما خطرات ممكن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثير هوش مصنوعي بر انتخابات توسط كارشناسان براي سال‌ها پيش‌بيني شده است و نگراني‌ها در مورد اختلالات اقتصادي و تغييرات شديد در بازار كار باعث ايجاد اضطراب اضافي در نظم اجتماعي مي‌شود كه در حال حاضر هم حتي نشانه‌هايي از استرس شديد را ميان افراد شاغل و نيروهاي كار نشان مي‌دهد. در اروپا، تقريبا نيمي از افراد خانواده‌هاي در سن كار در كشورهاي OECD (سازمان توسعه و همكاري اقتصادي بين‌المللي شامل 38 عضو) از نظر مالي شكننده هستند و شبح تاريك از دست دادن شغل به دليل رشد پديده هوش مصنوعي در حال حاضر به عنوان يك عامل نگران‌كننده براي كارگران در سراسر جهان ثبت شده است.

يك نظرسنجي گالوپ در سال 2023 در ايالات‌متحده نشان داد كه 22درصد از كارگران از منسوخ شدن شغل آنها توسط فناوري‌هاي جديد مانند هوش مصنوعي مي‌ترسند كه نسبت به سال 2021 شاخص اين نگراني 7درصد افزايش يافته است. اين پديده و به عبارتي ترس جديد به اختصار FOBO ناميده مي‌شود، به اين پديده ترس از منسوخ شدن مشاغل مي‌گويند. در اتحاديه اروپا، ترس از پديده فوبو ممكن است حتي شديدتر باشد، زيرا يك نظرسنجي يوروبارومتر در سال 2017 نشان داد كه 72درصد از كارگران اروپايي مي‌ترسند فناوري‌هاي جديد «شغل مردم را بدزدند.»

مطالعات درخصوص ركود بزرگ و ظهور فاشيسم در دهه 1930 خطراتي را براي جامعه نشان مي‌دهد كه بخش عمده‌اي از جامعه معيشت خود را از دست مي‌دهند. اضطراب گسترده زمينه مساعدي را براي پوپوليست‌ها و عوام‌فريبي اقتدارگرا براي به دست آوردن قدرت ايجاد مي‌كند و اين چالش بزرگي براي دموكراسي است كه برابري در جامعه و حاكميت قانون را به خطر مي‌اندازد.

بيشتر مطالعات در زمينه هوش مصنوعي و بازارهاي كار نشان مي‌دهد كه تاثير كلي كمتري بر نرخ اشتغال دارد، اما تعداد قابل‌توجهي از كارگران ممكن است به آموزش‌هاي جديد نياز داشته باشند تا همچنان قابل اشتغال به كار را داشته باشند.

ساعات كار طولاني‌تر

چه كسي مسووليت پرداخت اين هزينه‌ها را به عهده خواهد گرفت؟ تكليف افرادي كه نمي‌توانند يا در اين بازآموزي شركت داده نمي‌شوند، چيست؟ مطالعه‌اي در سال 2023 توسط گلدمن ساكس نشان داد كه تقريبا دوسوم مشاغل در اتحاديه اروپا و ايالات‌متحده تحت‌تاثير هوش مصنوعي قرار مي‌گيرند و اين مي‌تواند جايگزين يك‌چهارم مشاغل فعلي شود. همان مطالعه همچنين به افزايش 7درصدي توليد ناخالص داخلي جهاني و ايجاد مشاغل جديد اشاره مي‌كند كه شايد جايگزين بسياري از موقعيت‌هاي ازدست رفته در دوران گذار شود.

مطالعات مقايسه‌اي توسط سازمان بين‌المللي كار، بانك مركزي اروپا و صندوق بين‌المللي پول نيز يافته‌هاي مشابهي را نشان مي‌دهند، اما همين نتايج مطالعه به ندرت به عناوين روشن براي عموم تبديل مي‌شود. حتي زماني كه آنها آزادانه و بدون جهت‌گيري منتشر مي‌شوند، مردم به آنها بي‌اعتماد هستند، زيرا آنان از سمت همان صداهايي مي‌آيند كه به آنها اطمينان داده بودند كه بخش مالي نيازي به مقررات قوي در پيش از بحران اقتصادي سال 2008 ندارند.

علاوه بر اين، بدون مشاهده سياست‌هاي مشخص براي اطمينان از نتايج مثبت و فراگير براي انتقال هوش مصنوعي، نمي‌توان مردم را به دليل بدبيني آنها سرزنش كرد. مردم زماني را به خاطر مي‌آورند كه به آنها گفته شد فناوري زندگي آنها را آسان‌تر مي‌كند، حجم كاري آنها را كاهش مي‌دهد و افراد با اتكا به اين فناوري‌ها زمان بيشتري را براي كارهاي شخصي خود آزاد مي‌كنند. درعوض آنچه كه در عمل اتفاق افتاد كاملا برعكس بود، پيدايش فناوري‌هاي جديد باعث شد آنها حتي ساعت‌هاي طولاني‌تري كار كنند و كارفرمايان را قادر مي‌سازد تا آنها را دقيق‌تر زيرنظر داشته باشند و حتي آنها را در زمان استراحت‌شان موظف به كار كنند.

وحشت از آينده

پديده فوبو باعث مي‌شود امروزه بسياري از شهروندان به جاي اعتماد به نفس، با ترس و وحشت به آينده نگاه كنند، زيرا بسياري از پيش‌بيني‌هاي قبلي آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولت‌ها و نهادها پاسخ دقيق مدنظر آنها را ارايه ندهند، پوپوليست‌ها و بازيگران سياسي متمايل به اقتدارگرايي ميدان را در دست خواهند گرفت. عموم مردم با اين پرسش مواجه مي‌شوند كه آيا باز هم مي‌توانم كار كنم؟ آيا براي تغذيه و هزينه اجاره خانه خانواده‌ام به اندازه كافي درآمد كسب خواهم كرد؟ اين براي چه مدت دوام خواهد داشت؟ آيا زندگي من 10 سال ديگر بهتر خواهد شد يا بدتر؟ در مورد زندگي فرزندانم چطور؟ آيا ثروتمندان ثروتمندتر مي‌شوند درحالي كه فقيرها فقير مي‌مانند؟

عصر هوش مصنوعي جنبه‌هايي از زندگي ما را
به گونه‌اي متحول خواهد كرد كه ارزش‌ها، قوانين و هنجارهاي اجتماعي ما را به راستي به چالش‌هايي جديد مي‌كشد كه پيش از آن هيچ تجربه‌اي از نحوه مواجهه با آن نداريم، اما هنوز مشخص نيست كه آيا عصر جديد در جهت برابري و رفاه بيشتر رقم مي‌خورد يا خير و قضيه كاملا برخلاف تصور عمومي است. باتوجه به تجربيات تاريخي اخير در حوزه توسعه فناوري و جامعه، چشم‌انداز روشني وجود نخواهد داشت مگر اينكه ما يك تلاش آگاهانه و جمعي انجام دهيم. به همين دليل است كه ما به يك قرارداد اجتماعي جديد براي ورود به عصر هوش مصنوعي نياز داريم.

اختراع آينده

دنيس گابور، برنده جايزه نوبل، نويسنده كتاب «اختراع آينده» (1963) يك جمله طلايي در اين خصوص دارد: «آينده را نمي‌توان پيش‌بيني كرد، اما آينده را مي‌توان اختراع كرد.» درحالي كه يك قرارداد اجتماعي ذاتا يك تلاش جمعي براي بحث، ساختن و توافق بر سر هنجارها و ارزش‌هاي اجتماعي است، چند سوال كليدي را مي‌توان شناسايي كرد. انسان محصور در حلقه يا انسان در كنترل؟ ممكن است خلبانان خودكار بتوانند هواپيماها را به پرواز درآورند اما انسان‌ها بايد هميشه در كابين خلبان باشند. رويكرد انسان تحت كنترل، مسووليت‌پذيري انسان را درقبال تصميمات اتخاذ شده توسط و با هوش مصنوعي كه مي‌تواند بر زندگي، سلامت و دارايي تاثير بگذارد، تضمين مي‌كند. قوانين اتحاديه اروپا در حال حاضر محافظت در برابر نظارت و تصميم‌گيري خودكار را ارايه مي‌دهد، اما با فراگيرتر شدن ابزارهاي مبتني بر هوش مصنوعي، ممكن است نياز به شفاف‌سازي و حتي گسترش اين حمايت‌ها داشته باشيم، به ويژه در مواردي كه تصميمات بر كرامت انساني در استخدام، مراقبت‌هاي بهداشتي، آموزش و پرورش و مسائل مالي تاثير مي‌گذارند. به عنوان مثال، «مديريت الگوريتمي كارگران» به خودي خود يك پلتفرم مشكل‌ساز در عصر حاضر است، اكنون بايد از خود بپرسيم كه آيا از پذيرش مديريت هوش مصنوعي كارگران در آينده خوشحال خواهيم بود يا اين تبديل به يك نگراني عميق خواهد شد؟ و بعد از آن رابطه بين مردم و پديده هوش مصنوعي چگونه خواهد بود؟ چگونه مي‌توانيم مردم را از خطر سلطه يك هوش برتر ايمن نگه داريم و اطمينان حاصل كنيم كه پيشرفت‌هاي فناوري جديد با ارزش‌هاي جوامع ما همسو هستند؟ در ساده‌ترين عبارت، اين به معناي موافقت، تدوين و اجراي مجموعه‌اي از قوانين است كه نشان مي‌دهد هوش مصنوعي چه كاري را مي‌تواند انجام دهد و چه كاري را نمي‌تواند انجام دهد و انسان‌ها چگونه مي‌توانند از آن استفاده كنند يا ممكن است در جاهايي تصميم بگيرند كه آن را كنار بگذارند. اين بايد شامل نياز به رضايت انسان در مورد اينكه چگونه و چه زماني ممكن است به هوش مصنوعي اجازه داده شود تا در تعاملات يك فرد با دنياي ديجيتال واسطه شود، باشد تا مبادا عامليت انساني به خطر بيفتد.

آموزش و هوش مصنوعي

چگونه مي‌توانيم سيستم‌هاي آموزشي را براي تشويق همكاري انسان و هوش مصنوعي به جاي جايگزيني انسان با هوش مصنوعي طراحي كنيم؟ قطعا همه‌چيز نيازي به استفاده از هوش مصنوعي ندارد و سيستم‌هاي آموزشي بايد به آموزش مهارت‌هاي اساسي ادامه دهند. با اين وجود، به وضوح آموزش و يادگيري مادام‌العمر توسط فناوري‌هاي هوش مصنوعي تغيير مي‌يابند كه اجازه مي‌دهد شخصي‌سازي بيشتر متناسب با رويكردهاي يادگيري تك‌تك دانش‌آموزان باشد.

دانش‌آموزان در هر سني بايد آموزش ببينند و با سيستم‌هاي هوش مصنوعي كار كنند، ازجمله نحوه تعامل انتقادي و اخلاقي با الگوريتم‌هاي يادگيري عميق و ساير فناوري‌هاي هوش مصنوعي. با توجه به تقاضاهاي بسيار زياد در سيستم‌هاي آموزشي، اين امر مستلزم سرمايه‌گذاري عمومي استراتژيك و تمركز بر آموزش معلمان است.

كارگران و هوش مصنوعي

چگونه مي‌توانيم يك انتقال عادلانه را براي كارگران تضمين كنيم؟ در بازار كار، نقش‌هاي شغلي بايد مانند هميشه با فناوري‌هاي جديد تكامل يابد. اين ممكن است به معناي ايجاد موقعيت‌هاي جديدي باشد كه بر همكاري انسان و هوش مصنوعي تمركز مي‌كند، از جمله اطمينان از اينكه سيستم‌هاي هوش مصنوعي همان‌طور كه درنظر گرفته شده عمل مي‌كنند و مسوولانه استفاده مي‌شوند.

دولت‌ها و بخش خصوصي بايد با اتخاذ شيوه‌هاي صحيح و آموخته‌شده از انتقال به يك دوران جديد با حداكثر صيانت از حقوق افراد و همياري يكديگر به به كارگران كمك كنند تا در يك گذار عادلانه سازگار شوند كه بيشترين بخش‌ها را در معرض پيشگيري از مخاطرات قرار دهند، همچنين به موازات آن مهارت‌هاي گسترده موردنياز براي اطمينان از استفاده مسوولانه از هوش مصنوعي را توسعه دهند.

ارزش‌هاي انساني و هوش مصنوعي

از چه توانايي‌ها و چه ارزش‌هاي انساني مي‌خواهيم محافظت كنيم؟ انسان‌ها براي كار، زندگي نمي‌كنند بلكه براي رفاه زندگي كار مي‌كنند، اما ما انسان‌ها از داشتن احساس هدف و رسيدن به اهداف‌مان در زندگي معنا مي‌گيريم. اگر هوش مصنوعي يك صنعت را به‌ شدت تغيير دهد و اكثر كارگران براي كارهاي ديگر مناسب نباشند، چگونه مي‌توانند بدون كار يا دستاوردهاي مشابه از زندگي خود معنايي بگيرند؟ هوش مصنوعي در حال حاضر هنر و موسيقي خود را مي‌سازد درحالي كه بيشتر انسان‌ها براي انجام فعاليت‌هاي خلاقانه و رضايت‌بخش كمتر تلاش مي‌كنند.

آيا مهارت‌هاي خاصي وجود دارد كه بشر بخواهد آنها را حفظ كند و تا قرن‌ها فعاليت حرفه‌اي و فرهنگي از بين نرود؟ در بسياري از زمينه‌هاي زندگي بشر، ممكن است براي ما كاملا مشروع باشد كه بخواهيم از رويكردهاي «ارگانيك» يا «زيستي» بدون هوش مصنوعي محافظت كنيم، درست همان‌طور كه برخي از كشورهاي اتحاديه اروپا قوانيني در مورد زبان‌ها و توليدات فرهنگي دارند. حتي اگر بخواهيم به مصرف‌كنندگان آزادي انتخاب بدهيم، بايد درنظر بگيريم كه آيا به قوانيني در مورد برچسب‌گذاري محتواي توليد شده توسط هوش مصنوعي نياز داريم تا انتخاب مصرف‌كننده معنادار باشد.

چگونه مي‌توانيم انتقال هوش مصنوعي را فراگير كنيم؟ در حال حاضر آگاهي بيشتري در مورد خطرات سوگيري الگوريتمي و تبعيض الگوريتمي وجود دارد، اما اين چالش‌ها با پذيرش گسترده فناوري‌هاي يادگيري ماشين تشديد خواهد شد. افزايش تنوع در سراسر اكوسيستم هوش مصنوعي، از بخش‌هاي تحقيقاتي گرفته تا هيات‌هاي اجرايي، به حمايت از انتقال هوش مصنوعي فراگيرتر و همچنين تمركز بر تنوع بيشتر در مجموعه داده‌هاي آموزشي كمك مي‌كند.

چگونه از عقب ماندن مردم جلوگيري كنيم؟ اين انتقال فناوري ممكن است با امواج قبلي متفاوت باشد، زيرا مي‌تواند بر مشاغل حرفه‌اي بسيار ماهر كه قبلا در برابر اتوماسيون «ايمن» تلقي مي‌شدند نيز تاثير بگذارد.

با پيشرفت تكنولوژي، همه افراد به ‌طور بالقوه درمعرض خطر احساس منسوخ شدن و «جاي ماندن» هستند. بنابراين، ما بايد هميشه به ياد داشته باشيم كه انسان‌ها به خودي خود يك هدف هستند و هر پيشرفتي كه مردم را پشت سر بگذارد، پيشرفت نيست. به ‌جاي پذيرش اين فرض كه انسان‌ها بايد با اتوماسيون رقابت كنند، سيستم‌هاي رفاهي و حمايت‌هاي كارگري بايد براي حمايت از زمان و فضاي خلاقانه‌اي كه مردم به آن نياز دارند وفق دهند تا هوش فرهنگي و اجتماعي انساني غني و متنوعي را توليد كنند كه مدل‌هاي يادگيري عميق آن را بازسازي كرده و در خروجي هوش مصنوعي تركيب مي‌كنند.

جعبه سياه هوش مصنوعي

آيا تركيبي از خدمات پايه جهاني (UBS) و درآمد پايه جهاني (UBI) وجود دارد كه رفاه و كرامت انسان را حفظ كند؟ شايد اين مي‌تواند تا حدي توسط نوعي ماليات توسط هوش مصنوعي تامين شود. چگونه مي‌توانيم تضمين كنيم كه «توليد‌كنندگان داده‌ها به عنوان نيروي كار» با پرداخت عوارض و ماليات به ‌طور عادلانه با نيروي كار انساني رقابت كنند؟ همان‌طور كه «اي گلن ويل» و «جارن لنير» از پيشگامان فناوري در سال 2018 اين نظريه را مطرح مي‌كنند كه فناوري‌هايي مانند الگوريتم‌هاي يادگيري عميق و شبكه‌هاي عصبي امروزي براي انجام كارهاي سنگين به «داده به عنوان كار» متكي هستند پس صراحتا اين نكته قابل تكرار است كه مدل‌هاي يادگيري عميق بدون داده‌هاي آموزشي توليد شده توسط انسان نمي‌توانند كاري را كه انجام مي‌دهند تكميل كنند. حتي داده‌هاي مصنوعي يا داده‌هاي آموزشي توليد شده توسط مدل‌هاي هوش مصنوعي، درنهايت محصول داده‌هاي اوليه انساني به عنوان نيروي كار است.

تصميم‌گيري در سيستم‌هاي هوش مصنوعي مانند يك «جعبه سياه» درون هواپيماها و زيردريايي‌هاست، اما سياست‌گذاران اين عرصه مي‌توانند با طراحي مقرراتي كه چانه‌زني جمعي را بين سازمان‌هايي كه نماينده كارگراني كه داده‌هاي آموزشي را ايجاد مي‌كنند و صاحبان مدل‌هاي هوش مصنوعي كه به صورت تجاري از اين داده‌ها بهره‌برداري مي‌كنند، تسهيل كنند و اين روند به ايجاد شفافيت در مدل‌هاي تعاملي كمك كند.

چگونه مي‌توانيم سيستم‌هاي هوش مصنوعي پايدار را در يك اقتصاد زنجيروار كه به ‌صورت يك چرخه سلسله مراتبي شكل يافته است، جانمايي كنيم؟ الگوريتم‌هاي يادگيري عميق به منابع محاسباتي قابل‌توجهي نياز دارند كه انرژي زيادي دارند و همچنين روي سخت‌افزاري اجرا مي‌شوند كه به مواد خام استخراج ‌شده از زمين نياز دارد. اين يكي از دلايلي است كه وقتي رويكردهاي ارزان‌تر (ازجمله رويكردهاي الگوريتمي ارزان‌تر) به همان خوبي كار را انجام مي‌دهند، درنظر داشته باشيد كه هوش مصنوعي به همه ‌چيز اتكاي منطقي اقتصادي يا زيست محيطي ندارد. با اين حال، در جايي كه يك مورد مسوول براي هوش مصنوعي وجود دارد، چگونه مي‌توانيم اطمينان حاصل كنيم كه باعث انتشار كربن و استخراج منابع مخرب زيست محيطي نمي‌شود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعي به‌طور بالقوه مي‌تواند به جوامع كمك كند تا انرژي كارآمدتر و پايدارتر شوند.

چه كسي صاحب نوآوري‌هاي ايجاد شده توسط هوش مصنوعي خواهد شد؟ در سال 2021، آفريقاي جنوبي اولين كشوري بود كه به يك مدل هوش مصنوعي جديد حق اختراع اعطا كرد، اگرچه ساير دفاتر ثبت اختراع در سراسر جهان در اين خصوص بسيار محتاط‌تر عمل كردند. در دسامبر 2023 سرويس گوگل ديپ مايند يك راه‌حل كاملا جديد براي يك مساله رياضي ارايه كرد، اما از ثبت حق اختراع نوآوري هوش مصنوعي‌اش در آن زمان ايالات‌متحده بازماند، يك نكته ديگر كه ضرورت دارد مغفول نماند اين مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همان‌طور كه سيستم‌هاي هوش مصنوعي شروع به توليد نوآوري‌هايي مانند داروهاي جديد مي‌كنند، چگونه سيستم‌هاي مالكيت معنوي تضمين مي‌كنند كه ابزار نوآوري به نفع همه است و صرفا به ‌طور دايمي توسط ثروتمندترين‌ها تسخير نمي‌شود؟ آيا به هوش مصنوعي عمومي نياز داريم؟

همان‌طور كه مدل‌هاي هوش مصنوعي پيچيده‌تر مي‌شوند، به منابع محاسباتي بيشتري نياز خواهند داشت كه در حال حاضر به يك مانع اقتصادي براي دسترسي تبديل شده است.

تاريخچه طولاني موسسات عمومي وجود دارد كه براي ارايه دسترسي رايگان يا مقرون به‌صرفه به خدمات اطلاعاتي، از كتابخانه‌هاي عمومي تا خدمات پخش عمومي، طراحي شده‌اند. به جاي يك سيستم دو لايه، با پيشرفته‌ترين هوش مصنوعي پنهان در پشت ديوارهاي پرداخت و دسترسي آزاد (يا محدود) به هوش مصنوعي اوليه، آيا همه شهروندان نبايد به هوش مصنوعي عمومي پيشرفته دسترسي داشته باشند.

به نظر مي‌رسد با روند كنوني اتحاديه اروپا بايد شهروندانش را در يك بحث عمومي گسترده و پويا درمورد سوالات فوق و هر سوال ديگري كه پيش مي‌آيد، مشاركت دهد.

در كنار سياست‌هاي سنتي نمايندگي، كنفرانس آينده اروپا و پانل‌هاي شهروندان اروپايي نشان مي‌دهد كه چگونه فرآيندهاي سياسي مشورتي ممكن است به شناسايي و حفظ پاسخ‌ها در روح دموكراتيك قرارداد اجتماعي كه توسط ژان ژاك روسو تدوين شده، كمك كند.

يك ضرب‌المثل قديمي از روزهاي اوليه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده يا همان (GIGO) به اين معني كه خروجي يك كامپيوتر فقط به اندازه ورودي داده خوب است به اين معني كه خروجي‌ها به كيفيت ورودي‌ها بستگي مستقيم دارند. هوش مصنوعي به سادگي هر چه تمام‌تر مي‌تواند دايره باطل مثال GIGO را نشان دهد. اگر انسان‌ها را مجبور به رقابت با اتوماسيون كنيم، جامعه را تنزل خواهيم داد كه نه تنها داده‌هاي آموزش هوش مصنوعي آينده بلكه زمينه اجتماعي را كه شركت‌ها و دانشمنداني كه سيستم‌هاي هوش مصنوعي مي‌سازند از آن بيرون مي‌آيند را نيز تخريب مي‌كنند، اين قطعا همان آينده‌اي است كه به فاجعه ختم خواهد شد. اما آينده‌اي جايگزين وجود دارد كه در آن هوش مصنوعي هوش اجتماعي انسان را در يك دايره فضيلتمند گسترش داده و از آن پشتيباني مي‌كند كه به درون خود بازخورد مي‌دهد و شكوفايي بشريت را تشويق مي‌كند، البته خوشبختانه همچنان در آغاز راه هستيم و هنوز فرصت كافي داريم تا آينده و سرنوشت‌مان را خودمان انتخاب كنيم.

اين مطلب را با گفته‌اي از ژان ژاك روسو درخصوص قرارداد اجتماعي خاتمه مي‌دهيم: «در حقيقت، قوانين هميشه براي مالكان مفيد هستند و براي كساني كه چيزي ندارند مضر. از آن نتيجه مي‌شود كه دولت اجتماعي تنها زماني براي مردمان سودمند است كه همه ‌چيزي داشته باشند و هيچ‌كس بيش از حد نداشته باشد.»

مشاور ارشد، دفاع از دموكراسي

محقق دكتراي تاريخ فناوري و دموكراسي، دانشگاه ماستريخت

مترجم: كامران مشفق آراني

منبع:

https: //defenddemocracy.eu/a-new-social-contract-for-the-age-of-artificial-intelligence/


عصر هوش مصنوعي جنبه‌هايي از زندگي ما را به گونه‌اي متحول خواهد كرد كه ارزش‌ها، قوانين و هنجارهاي اجتماعي ما را به راستي به چالش‌هايي جديد مي‌كشد كه پيش از آن هيچ تجربه‌اي از نحوه مواجهه با آن نداريم، اما هنوز مشخص نيست كه آيا عصر جديد در جهت برابري و رفاه بيشتر رقم مي‌خورد يا خير و قضيه كاملا برخلاف تصور عمومي است.


دنيس گابور، برنده جايزه نوبل، نويسنده كتاب «اختراع آينده» (1963) يك جمله طلايي در اين خصوص دارد: «آينده را نمي‌توان پيش‌بيني كرد، اما آينده را مي‌توان اختراع كرد.» درحالي كه يك قرارداد اجتماعي ذاتا يك تلاش جمعي براي بحث، ساختن و توافق بر سر هنجارها و ارزش‌هاي اجتماعي است.


خوشبختانه همچنان در آغاز راه هستيم و هنوز فرصت كافي داريم تا آينده و سرنوشت‌مان را خودمان انتخاب كنيم.  اين مطلب را با گفته‌اي از ژان ژاك روسو درخصوص قرارداد اجتماعي خاتمه مي‌دهيم: «در حقيقت، قوانين هميشه براي مالكان مفيد هستند و براي كساني كه چيزي ندارند مضر. از آن نتيجه مي‌شود كه دولت اجتماعي تنها زماني براي مردمان سودمند است كه همه ‌چيزي داشته باشند و هيچ‌كس بيش از حد نداشته باشد.»

منبع: روزنامه اعتماد 2 اسفند 1402 خورشیدی