به سوی فهم فناوری نرم (73)
به سوی فهم فناوری نرم (73)
حکمرانی الگوریتمی؛ فرصت راهبردی یا تهدید شناختی؟
ظهور حکمرانی الگوریتمی را میتوان یکی از بنیادیترین تحولات در منطق تصمیمگیری معاصر دانست؛ تحولی که نهتنها شیوههای اداره سازمانها و دولتها را دگرگون ساخته، بلکه مستقیماً با ساختارهای شناختی انسان و نحوه قضاوت و انتخاب او درهمتنیده است. در این چارچوب، حکمرانی الگوریتمی بهعنوان پاسخی به پیچیدگی فزاینده جهان اجتماعی معرفی میشود؛ پاسخی که وعده میدهد با تکیه بر دادههای عظیم، محاسبات پیشرفته و مدلهای پیشبینیگر، تصمیمهایی دقیقتر، سریعتر و عاری از خطاهای انسانی اتخاذ کند. با این حال، همین وعدهها پرسشی بنیادین را پیش میکشند: آیا حکمرانی الگوریتمی فرصتی راهبردی برای ارتقای کیفیت حکمرانی است یا تهدیدی شناختی که به تضعیف عاملیت انسانی میانجامد؟
در نگاه نخست، جذابیت حکمرانی الگوریتمی در توان آن برای مدیریت پیچیدگی نهفته است. مسائل حکمرانی معاصر، از سیاستگذاری اقتصادی و اجتماعی گرفته تا مدیریت بحرانهای زیستمحیطی و امنیتی، با حجم عظیمی از دادهها و متغیرهای درهمتنیده مواجهاند. الگوریتمها در چنین شرایطی بهعنوان ابزارهایی معرفی میشوند که میتوانند این پیچیدگی را قابلکنترل سازند و تصمیمگیران انسانی را از بار شناختی سنگین رها کنند. این تصور، الگوریتم را به نماد عقلانیت نوین بدل میکند؛ عقلانیتی که مبتنی بر محاسبه، پیشبینی و بهینهسازی است.
با این حال، انتقال تدریجی تصمیمگیری به سامانههای الگوریتمی، صرفاً به معنای تغییر ابزار نیست، بلکه بیانگر تغییر در تعریف عقلانیت است. عقلانیت الگوریتمی، آنچه را که قابل اندازهگیری و مدلسازی است، در مرکز قرار میدهد و سایر ابعاد تصمیمگیری را به حاشیه میراند. در این چارچوب، قضاوت انسانی، تجربه زیسته، شهود و ملاحظات اخلاقی، اغلب بهعنوان منابع خطا یا عدمقطعیت تلقی میشوند. این بازتعریف عقلانیت، زمینهساز نوعی سلسلهمراتب جدید میان انسان و ماشین میشود که در آن، ماشین بهعنوان مرجع معتبرتر تصمیمسازی معرفی میگردد.
یکی از پیامدهای کلیدی این وضعیت، شکلگیری پدیدهای است که میتوان آن را واگذاری شناختی نامید. در این پدیده، انسانها بهتدریج بخشی از کارکردهای ذهنی خود، از جمله تحلیل، قضاوت و پیشبینی را به الگوریتمها میسپارند. این واگذاری، در ابتدا آگاهانه و با هدف افزایش کارآمدی صورت میگیرد، اما بهمرور میتواند به وابستگی شناختی منجر شود. هنگامی که تصمیمگیران به خروجیهای الگوریتمی بیش از قضاوت خود اعتماد میکنند، توان تصمیمگیری مستقل تضعیف میشود و انسان به تأییدکننده منفعل پیشنهادهای ماشینی بدل میگردد. مطالعات علوم شناختی نشان میدهند که این وابستگی، پیامدی طبیعی در تعامل انسان با سامانههای خودکار است. انسانها تمایل دارند به سیستمهایی که عملکرد بهتری از خود نشان میدهند، اعتماد بیشتری کنند و در نتیجه، نظارت فعال خود را کاهش دهند. این پدیده که بهعنوان سوگیری اتوماسیون شناخته میشود، در سطح فردی میتواند به کاهش مهارتهای شناختی منجر شود و در سطح نهادی، به فرسایش ظرفیت تصمیمگیری مستقل سازمانها بینجامد. در حکمرانی، چنین وضعیتی میتواند پیامدهای گستردهای داشته باشد، زیرا تصمیمگیری حکمرانی همواره با مسئولیت اجتماعی و سیاسی همراه است.
تهدید شناختیِ حکمرانی الگوریتمی زمانی آشکارتر میشود که این سامانهها در شرایط عدمقطعیت و بحران به کار گرفته شوند. الگوریتمها ذاتاً بر دادههای گذشته و الگوهای پیشین متکیاند و توانایی محدودی در مواجهه با وضعیتهای نوظهور دارند. در چنین شرایطی، اگر انسان توان قضاوت مستقل خود را از دست داده باشد، تصمیمگیری بهشدت آسیبپذیر میشود. این مسئله نشان میدهد که اتکای صرف به الگوریتمها نهتنها تضمینی برای عقلانیت بیشتر نیست، بلکه میتواند ریسکهای جدیدی ایجاد کند.
با این حال، تمرکز صرف بر تهدیدهای شناختی، تصویر ناقصی از حکمرانی الگوریتمی ارائه میدهد. در سوی دیگر این دوگانه، فرصتهای راهبردی قابلتوجهی نهفته است. الگوریتمها میتوانند به تصمیمگیران کمک کنند تا پیامدهای بلندمدت سیاستها را شبیهسازی کنند، الگوهای پنهان را شناسایی نمایند و از تصمیمهای احساسی و کوتاهمدت پرهیز کنند. در این معنا، حکمرانی الگوریتمی میتواند به ارتقای عقلانیت جمعی و بهبود کیفیت تصمیمگیری بینجامد، مشروط بر آنکه بهدرستی طراحی و تنظیم شود.
این فرصتها بهویژه برای کشورهایی که با محدودیتهای زیرساختی و منابع مواجهاند، اهمیت راهبردی دارد. در چنین کشورهایی، استفاده هوشمندانه از الگوریتمها میتواند امکان مدیریت بهتر منابع، پیشبینی بحرانها و بهینهسازی سیاستها را فراهم آورد. اما همین فرصت، در صورت نادیده گرفتن پیامدهای شناختی، میتواند به وابستگی ساختاری به فناوریهای وارداتی و منطقهای تصمیمسازی تحمیلی منجر شود. از اینرو، پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی، پرسشی صرفاً فنی نیست، بلکه عمیقاً راهبردی و سیاسی است.
در این چارچوب، حکمرانی الگوریتمی را باید بهعنوان میدان انتخابی آگاهانه در نظر گرفت. انتخاب میان واگذاری بیقیدوشرط تصمیمگیری به ماشین و طراحی چارچوبهایی که نقش فعال انسان را حفظ میکنند. این انتخاب، آینده عاملیت انسانی و کیفیت حکمرانی را رقم میزند. اگر الگوریتمها بهعنوان جایگزین انسان به کار گرفته شوند، تهدید شناختی آنها بهتدریج بنیانهای تصمیمگیری انسانی را تضعیف خواهد کرد. اما اگر بهعنوان ابزارهایی برای تقویت قضاوت انسانی مورد استفاده قرار گیرند، میتوانند به فرصتی راهبردی بدل شوند.
برای داوری دقیقتر درباره دوگانه فرصت راهبردی یا تهدید شناختی، لازم است سازوکارهایی که از طریق آنها حکمرانی الگوریتمی بر ذهن، قضاوت و تصمیم انسان اثر میگذارد، بهصورت تحلیلی واکاوی شوند. آنچه این پدیده را از تحولات فناورانه پیشین متمایز میسازد، عمق نفوذ آن در فرآیندهای شناختی و الگوهای تصمیمسازی است. الگوریتمها نهتنها اطلاعات را پردازش میکنند، بلکه بهطور فزاینده در تعریف مسئله، اولویتبندی گزینهها و شکلدهی به افقهای ادراک مشارکت دارند.
یکی از نخستین سازوکارهای تهدیدزا در حکمرانی الگوریتمی، تغییر تدریجی نقش انسان از کنشگر تصمیمساز به ناظر تصمیم. در بسیاری از سامانههای تصمیمیار، انسان در ظاهر در چرخه تصمیمگیری باقی میماند، اما نقش او به تأیید یا رد خروجی الگوریتمی محدود میشود. این وضعیت، نوعی توهم کنترل ایجاد میکند؛ توهمی که در آن انسان گمان میکند همچنان اختیار تصمیم را در دست دارد، در حالی که چارچوب انتخابها از پیش توسط الگوریتم تعیین شده است. این توهم، یکی از خطرناکترین پیامدهای شناختی حکمرانی الگوریتمی است، زیرا امکان بازاندیشی انتقادی را تضعیف میکند.
سازوکار دوم، شکلگیری وابستگی شناختی نهادی است. در سطح فردی، وابستگی شناختی به کاهش مهارتهای تحلیلی و قضاوت مستقل میانجامد. اما در سطح نهادی، این وابستگی میتواند ساختارهای تصمیمگیری را بهگونهای بازپیکربندی کند که بدون توصیه الگوریتمی، تصمیمگیری ممکن نباشد. نهادها بهتدریج یاد میگیرند که بهجای توسعه ظرفیتهای درونی تحلیل، به مدلها و سیستمهای بیرونی تکیه کنند. این امر، انعطافپذیری نهادی را کاهش میدهد و توان واکنش به شرایط غیرمنتظره را تضعیف میکند.
سازوکار سوم، فنیسازی قضاوت اخلاقی است. حکمرانی الگوریتمی تمایل دارد مسائل اخلاقی و ارزشی را به متغیرهای قابل اندازهگیری تبدیل کند. عدالت، انصاف، مسئولیت و حتی ریسک، در قالب شاخصها و وزنها صورتبندی میشوند. اگرچه این فرایند میتواند شفافیت ظاهری ایجاد کند، اما همزمان خطر فروکاستن اخلاق به محاسبه را در پی دارد. در چنین شرایطی، تصمیمهایی که نیازمند داوری انسانی و حساسیت اخلاقیاند، به نتایج عددی تقلیل مییابند و امکان گفتوگوی ارزشی محدود میشود.
چهارمین سازوکار، تثبیت الگوهای گذشته از طریق پیشبینی دادهمحور است. الگوریتمها عمدتاً بر دادههای تاریخی متکیاند و از این دادهها برای پیشبینی آینده استفاده میکنند. این رویکرد، اگرچه از نظر آماری کارآمد به نظر میرسد، اما میتواند به بازتولید نابرابریها و الگوهای ناکارآمد گذشته منجر شود. از منظر شناختی، این امر به نوعی قفلشدگی تصمیمگیری میانجامد؛ وضعیتی که در آن امکان تصور بدیلها و مسیرهای نو محدود میشود. در کنار این تهدیدها، حکمرانی الگوریتمی ظرفیتهای شناختی جدیدی نیز ایجاد میکند. الگوریتمها میتوانند بار شناختی تصمیمگیران را کاهش دهند و آنها را قادر سازند تا بر جنبههای کلانتر و راهبردیتر تصمیمگیری تمرکز کنند. در این معنا، الگوریتمها میتوانند بهعنوان تقویتکننده شناخت انسانی عمل کنند، نه جایگزین آن. اما تحقق این ظرفیت، مستلزم طراحی آگاهانه و تنظیم دقیق نقش الگوریتم در چرخه تصمیمگیری است. فرصت راهبردی حکمرانی الگوریتمی در همین نقطه آشکار میشود. اگر الگوریتمها بهگونهای طراحی شوند که شفاف، قابل تفسیر و پاسخگو باشند، میتوانند به تصمیمگیران کمک کنند تا پیامدهای پیچیده تصمیمها را بهتر درک کنند. این امر بهویژه در حوزههایی مانند سیاستگذاری کلان، مدیریت ریسک و آیندهنگاری اهمیت دارد. الگوریتمها میتوانند سناریوهای مختلف را شبیهسازی کنند و امکان مقایسه پیامدها را فراهم آورند، بیآنکه لزوماً تصمیم نهایی را تحمیل کنند.
با این حال، بهرهگیری راهبردی از این فرصت مستلزم بازتعریف رابطه انسان و الگوریتم است. بهجای آنکه انسان در خدمت الگوریتم قرار گیرد، الگوریتم باید در خدمت قضاوت انسانی طراحی شود. این امر نیازمند تغییر در فرهنگ سازمانی و نهادی است؛ تغییری که در آن، خروجی الگوریتم بهعنوان یکی از ورودیهای تصمیمگیری تلقی شود، نه مرجع نهایی آن. چنین تغییری، از فرسایش عاملیت انسانی جلوگیری میکند و امکان یادگیری نهادی را حفظ مینماید.
در کشورهای دارای محدودیت زیرساختی، این بحث ابعاد مضاعفی مییابد. از یک سو، الگوریتمها میتوانند ابزارهایی برای جبران کمبود منابع و افزایش کارآمدی باشند و از سوی دیگر، خطر وابستگی شناختی به مدلها و فناوریهای وارداتی را افزایش دهند. اگر منطقهای تصمیمسازی الگوریتمی بدون بومیسازی و بدون توجه به زمینههای اجتماعی و فرهنگی به کار گرفته شوند، تهدید شناختی آنها تشدید میشود. در مقابل، اگر این کشورها بتوانند چارچوبهای بومی حکمرانی الگوریتمی طراحی کنند، الگوریتمها میتوانند به فرصتی راهبردی برای جهش نهادی بدل شوند.
در نهایت، دوگانه فرصت یا تهدید بودن حکمرانی الگوریتمی، پاسخی ساده و یکبعدی ندارد. این پدیده، همزمان حامل ظرفیتهای رهاییبخش و خطرهای محدودکننده است. آنچه سرنوشت این دوگانه را تعیین میکند، نه خود الگوریتمها، بلکه نحوه حکمرانی بر آنهاست. بدون حکمرانی آگاهانه، تهدید شناختی بهتدریج بر فرصتهای راهبردی غلبه خواهد کرد.
آنچه در بخشهای پیشین این یادداشت روشن شد، این است که حکمرانی الگوریتمی را نمیتوان صرفاً در چارچوب یک ابزار فناورانه یا رویکرد مدیریتی تحلیل کرد. این پدیده، در سطحی عمیقتر، به بازتعریف نسبت انسان، عقلانیت و تصمیمگیری در عصر دیجیتال میانجامد. پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی، در واقع پرسشی درباره آینده عاملیت انسانی، کیفیت حکمرانی و ظرفیت جوامع برای حفظ توان قضاوت و مسئولیتپذیری در مواجهه با پیچیدگی فزاینده است.
حکمرانی الگوریتمی زمانی به تهدید شناختی بدل میشود که منطق بهینهسازی، جایگزین منطق قضاوت شود. در چنین وضعیتی، تصمیمگیری به فرایندی تقلیل مییابد که هدف آن یافتن کارآمدترین پاسخ بر اساس دادههای موجود است، بیآنکه به زمینههای اجتماعی، اخلاقی و تاریخی توجه شود. این تقلیلگرایی شناختی، بهتدریج توان انسان برای اندیشیدن در باب بدیلها، امکانها و پیامدهای غیرمنتظره را تضعیف میکند. در این حالت، عقلانیت انسانی نه تقویت، بلکه محدود میشود.
در مقابل، حکمرانی الگوریتمی زمانی میتواند به فرصت راهبردی بدل شود که بهعنوان سازوکاری برای پشتیبانی از قضاوت انسانی طراحی گردد. در این رویکرد، الگوریتمها نقش افزاینده شناخت را ایفا میکنند؛ یعنی به انسان کمک میکنند تا پیچیدگیها را بهتر درک کند، نه اینکه جایگزین او در تصمیمگیری شوند. این تمایز ظریف اما بنیادین است. تفاوت میان الگوریتم بهمثابه ابزار فهم و الگوریتم بهمثابه مرجع تصمیم، تفاوت میان تقویت عاملیت انسانی و فرسایش آن است.
از منظر حکمرانی، این تمایز پیامدهای نهادی مهمی دارد. اگر الگوریتمها بهعنوان مرجع نهایی تصمیمسازی به کار گرفته شوند، ساختارهای پاسخگویی تضعیف میشوند. تصمیمها به خروجیهای فنی نسبت داده میشوند و مسئولیت انسانی در لایههای پیچیده فنی گم میشود. اما اگر الگوریتمها بهعنوان ابزار تحلیل و سناریوسازی مورد استفاده قرار گیرند، مسئولیت تصمیم همچنان بر عهده انسان و نهاد باقی میماند. در این حالت، الگوریتم بهجای پوشاندن مسئولیت، امکان تصمیمگیری آگاهانهتر را فراهم میآورد.
یکی از عناصر کلیدی در تبدیل حکمرانی الگوریتمی به فرصت راهبردی، طراحی سازوکارهای بازخورد شناختی است. این سازوکارها باید بهگونهای عمل کنند که خطاها، سوگیریها و پیامدهای ناخواسته تصمیمهای الگوریتمی را آشکار سازند و امکان بازاندیشی را فراهم آورند. بدون چنین چرخههای بازخوردی، حکمرانی الگوریتمی به سیستمی خودتقویتشونده بدل میشود که خطاهایش را بازتولید میکند و اصلاحناپذیر میگردد.
اخلاق در این چارچوب نقشی صرفاً هنجاری یا تزئینی ندارد، بلکه بخشی از معماری شناختی حکمرانی است. اخلاق بهمثابه سازوکاری برای توقف، پرسش و بازاندیشی عمل میکند؛ سازوکاری که مانع از آن میشود که تصمیمگیری به فرایندی صرفاً محاسباتی تقلیل یابد. در حکمرانی الگوریتمی انسانمحور، پرسشهای اخلاقی نه پس از تصمیم، بلکه در دل فرایند تصمیمسازی مطرح میشوند. این امر مستلزم آن است که الگوریتمها قابل تفسیر، قابل پرسش و قابل اصلاح باشند.
در سطح راهبردی، این بحث برای کشورهایی که با محدودیتهای زیرساختی و فناورانه مواجهاند، اهمیت مضاعف دارد. برای این کشورها، حکمرانی الگوریتمی میتواند مسیری برای جهش نهادی باشد؛ جهشی که نه از مسیر انباشت سختافزار، بلکه از مسیر طراحی منطقهای تصمیمسازی و مدیریت شناختی فناوری محقق میشود. اما این جهش تنها در صورتی ممکن است که حکمرانی الگوریتمی بهصورت فعال و آگاهانه طراحی شود، نه آنکه بهصورت منفعلانه وارداتی و تقلیدی پذیرفته شود.
در غیر این صورت، الگوریتمها به حاملان منطقهای تصمیمسازی بیگانه بدل میشوند؛ منطقهایی که ممکن است با زمینههای اجتماعی، فرهنگی و ارزشی جامعه همخوانی نداشته باشند. این وضعیت، نوعی استعمار شناختی ایجاد میکند که در آن تصمیمها بهظاهر عقلانی، اما در عمل بیگانه با واقعیتهای محلیاند. از اینرو، حکمرانی الگوریتمی برای چنین کشورهایی هم فرصت و هم تهدید است؛ فرصتی برای بازتعریف جایگاه خود در نظم جهانی و تهدیدی برای از دست دادن استقلال شناختی.
در نهایت، پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی را باید به پرسش از چگونه حکمرانیکردن بر الگوریتمهاتبدیل کرد. الگوریتمها خود نه خیر مطلقاند و نه شر مطلق. آنچه تعیینکننده است، چارچوبهای نهادی، اخلاقی و شناختیای است که در آنها به کار گرفته میشوند. آینده حکمرانی، بهویژه در عصر دیجیتال، به توان جوامع در طراحی این چارچوبها بستگی دارد.
اگر حکمرانی الگوریتمی بدون توجه به پیامدهای شناختی و اخلاقی گسترش یابد، بهتدریج به تهدیدی برای توان تصمیمگیری انسانی بدل خواهد شد. اما اگر با درک عمیق از محدودیتها و ظرفیتهای آن همراه شود، میتواند به یکی از مهمترین فرصتهای راهبردی برای ارتقای کیفیت حکمرانی تبدیل گردد. در این معنا، حکمرانی الگوریتمی نه نقطه پایان عاملیت انسانی، بلکه آزمونی تاریخی برای بازتعریف آن است.
جهت دانلود فایل پی دی اف یادداشت اینجا کلیک کنید.
دکتر مهدی حمزه پور
دانشیار گروه علوم تصمیم و سیستمهای پیچیده دانشکده مدیریت دانشگاه امام صادق (ع)
مشاور رئیس و رئیس اندیشکده فناوری نرم دانشگاه امام صادق (ع)

دیدگاهتان را بنویسید