جستجو برای:
  • صفحه اصلی
  • هسته‌های علمی
  • مقالات
    • نوشته ها
    • اخبار
    • یادداشت ها
  • درباره ما
 
اندیشکده فناوری نرم
  • صفحه اصلی
  • هسته‌های علمی
  • مقالات
    • نوشته ها
    • اخبار
    • یادداشت ها
  • درباره ما
0

ورود و ثبت نام

بلاگ

اندیشکده فناوری نرممقالاتیادداشت های فناوری نرمبه سوی فهم فناوری نرم (73)

به سوی فهم فناوری نرم (73)

6 اسفند 1404
ارسال شده توسط مدیر سایت
یادداشت های فناوری نرم
5 بازدید

به سوی فهم فناوری نرم (73)

حکمرانی الگوریتمی؛ فرصت راهبردی یا تهدید شناختی؟

ظهور حکمرانی الگوریتمی را می‌توان یکی از بنیادی‌ترین تحولات در منطق تصمیم‌گیری معاصر دانست؛ تحولی که نه‌تنها شیوه‌های اداره سازمان‌ها و دولت‌ها را دگرگون ساخته، بلکه مستقیماً با ساختارهای شناختی انسان و نحوه قضاوت و انتخاب او درهم‌تنیده است. در این چارچوب، حکمرانی الگوریتمی به‌عنوان پاسخی به پیچیدگی فزاینده جهان اجتماعی معرفی می‌شود؛ پاسخی که وعده می‌دهد با تکیه بر داده‌های عظیم، محاسبات پیشرفته و مدل‌های پیش‌بینی‌گر، تصمیم‌هایی دقیق‌تر، سریع‌تر و عاری از خطاهای انسانی اتخاذ کند. با این حال، همین وعده‌ها پرسشی بنیادین را پیش می‌کشند: آیا حکمرانی الگوریتمی فرصتی راهبردی برای ارتقای کیفیت حکمرانی است یا تهدیدی شناختی که به تضعیف عاملیت انسانی می‌انجامد؟

در نگاه نخست، جذابیت حکمرانی الگوریتمی در توان آن برای مدیریت پیچیدگی نهفته است. مسائل حکمرانی معاصر، از سیاست‌گذاری اقتصادی و اجتماعی گرفته تا مدیریت بحران‌های زیست‌محیطی و امنیتی، با حجم عظیمی از داده‌ها و متغیرهای درهم‌تنیده مواجه‌اند. الگوریتم‌ها در چنین شرایطی به‌عنوان ابزارهایی معرفی می‌شوند که می‌توانند این پیچیدگی را قابل‌کنترل سازند و تصمیم‌گیران انسانی را از بار شناختی سنگین رها کنند. این تصور، الگوریتم را به نماد عقلانیت نوین بدل می‌کند؛ عقلانیتی که مبتنی بر محاسبه، پیش‌بینی و بهینه‌سازی است.

با این حال، انتقال تدریجی تصمیم‌گیری به سامانه‌های الگوریتمی، صرفاً به معنای تغییر ابزار نیست، بلکه بیانگر تغییر در تعریف عقلانیت است. عقلانیت الگوریتمی، آنچه را که قابل اندازه‌گیری و مدل‌سازی است، در مرکز قرار می‌دهد و سایر ابعاد تصمیم‌گیری را به حاشیه می‌راند. در این چارچوب، قضاوت انسانی، تجربه زیسته، شهود و ملاحظات اخلاقی، اغلب به‌عنوان منابع خطا یا عدم‌قطعیت تلقی می‌شوند. این بازتعریف عقلانیت، زمینه‌ساز نوعی سلسله‌مراتب جدید میان انسان و ماشین می‌شود که در آن، ماشین به‌عنوان مرجع معتبرتر تصمیم‌سازی معرفی می‌گردد.

یکی از پیامدهای کلیدی این وضعیت، شکل‌گیری پدیده‌ای است که می‌توان آن را واگذاری شناختی نامید. در این پدیده، انسان‌ها به‌تدریج بخشی از کارکردهای ذهنی خود، از جمله تحلیل، قضاوت و پیش‌بینی را به الگوریتم‌ها می‌سپارند. این واگذاری، در ابتدا آگاهانه و با هدف افزایش کارآمدی صورت می‌گیرد، اما به‌مرور می‌تواند به وابستگی شناختی منجر شود. هنگامی که تصمیم‌گیران به خروجی‌های الگوریتمی بیش از قضاوت خود اعتماد می‌کنند، توان تصمیم‌گیری مستقل تضعیف می‌شود و انسان به تأییدکننده منفعل پیشنهادهای ماشینی بدل می‌گردد. مطالعات علوم شناختی نشان می‌دهند که این وابستگی، پیامدی طبیعی در تعامل انسان با سامانه‌های خودکار است. انسان‌ها تمایل دارند به سیستم‌هایی که عملکرد بهتری از خود نشان می‌دهند، اعتماد بیشتری کنند و در نتیجه، نظارت فعال خود را کاهش دهند. این پدیده که به‌عنوان سوگیری اتوماسیون شناخته می‌شود، در سطح فردی می‌تواند به کاهش مهارت‌های شناختی منجر شود و در سطح نهادی، به فرسایش ظرفیت تصمیم‌گیری مستقل سازمان‌ها بینجامد. در حکمرانی، چنین وضعیتی می‌تواند پیامدهای گسترده‌ای داشته باشد، زیرا تصمیم‌گیری حکمرانی همواره با مسئولیت اجتماعی و سیاسی همراه است.

تهدید شناختیِ حکمرانی الگوریتمی زمانی آشکارتر می‌شود که این سامانه‌ها در شرایط عدم‌قطعیت و بحران به کار گرفته شوند. الگوریتم‌ها ذاتاً بر داده‌های گذشته و الگوهای پیشین متکی‌اند و توانایی محدودی در مواجهه با وضعیت‌های نوظهور دارند. در چنین شرایطی، اگر انسان توان قضاوت مستقل خود را از دست داده باشد، تصمیم‌گیری به‌شدت آسیب‌پذیر می‌شود. این مسئله نشان می‌دهد که اتکای صرف به الگوریتم‌ها نه‌تنها تضمینی برای عقلانیت بیشتر نیست، بلکه می‌تواند ریسک‌های جدیدی ایجاد کند.

با این حال، تمرکز صرف بر تهدیدهای شناختی، تصویر ناقصی از حکمرانی الگوریتمی ارائه می‌دهد. در سوی دیگر این دوگانه، فرصت‌های راهبردی قابل‌توجهی نهفته است. الگوریتم‌ها می‌توانند به تصمیم‌گیران کمک کنند تا پیامدهای بلندمدت سیاست‌ها را شبیه‌سازی کنند، الگوهای پنهان را شناسایی نمایند و از تصمیم‌های احساسی و کوتاه‌مدت پرهیز کنند. در این معنا، حکمرانی الگوریتمی می‌تواند به ارتقای عقلانیت جمعی و بهبود کیفیت تصمیم‌گیری بینجامد، مشروط بر آنکه به‌درستی طراحی و تنظیم شود.

این فرصت‌ها به‌ویژه برای کشورهایی که با محدودیت‌های زیرساختی و منابع مواجه‌اند، اهمیت راهبردی دارد. در چنین کشورهایی، استفاده هوشمندانه از الگوریتم‌ها می‌تواند امکان مدیریت بهتر منابع، پیش‌بینی بحران‌ها و بهینه‌سازی سیاست‌ها را فراهم آورد. اما همین فرصت، در صورت نادیده گرفتن پیامدهای شناختی، می‌تواند به وابستگی ساختاری به فناوری‌های وارداتی و منطق‌های تصمیم‌سازی تحمیلی منجر شود. از این‌رو، پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی، پرسشی صرفاً فنی نیست، بلکه عمیقاً راهبردی و سیاسی است.

در این چارچوب، حکمرانی الگوریتمی را باید به‌عنوان میدان انتخابی آگاهانه در نظر گرفت. انتخاب میان واگذاری بی‌قیدوشرط تصمیم‌گیری به ماشین و طراحی چارچوب‌هایی که نقش فعال انسان را حفظ می‌کنند. این انتخاب، آینده عاملیت انسانی و کیفیت حکمرانی را رقم می‌زند. اگر الگوریتم‌ها به‌عنوان جایگزین انسان به کار گرفته شوند، تهدید شناختی آن‌ها به‌تدریج بنیان‌های تصمیم‌گیری انسانی را تضعیف خواهد کرد. اما اگر به‌عنوان ابزارهایی برای تقویت قضاوت انسانی مورد استفاده قرار گیرند، می‌توانند به فرصتی راهبردی بدل شوند.

برای داوری دقیق‌تر درباره دوگانه فرصت راهبردی یا تهدید شناختی، لازم است سازوکارهایی که از طریق آن‌ها حکمرانی الگوریتمی بر ذهن، قضاوت و تصمیم انسان اثر می‌گذارد، به‌صورت تحلیلی واکاوی شوند. آنچه این پدیده را از تحولات فناورانه پیشین متمایز می‌سازد، عمق نفوذ آن در فرآیندهای شناختی و الگوهای تصمیم‌سازی است. الگوریتم‌ها نه‌تنها اطلاعات را پردازش می‌کنند، بلکه به‌طور فزاینده در تعریف مسئله، اولویت‌بندی گزینه‌ها و شکل‌دهی به افق‌های ادراک مشارکت دارند.

یکی از نخستین سازوکارهای تهدیدزا در حکمرانی الگوریتمی، تغییر تدریجی نقش انسان از کنشگر تصمیم‌ساز به ناظر تصمیم. در بسیاری از سامانه‌های تصمیم‌یار، انسان در ظاهر در چرخه تصمیم‌گیری باقی می‌ماند، اما نقش او به تأیید یا رد خروجی الگوریتمی محدود می‌شود. این وضعیت، نوعی توهم کنترل ایجاد می‌کند؛ توهمی که در آن انسان گمان می‌کند همچنان اختیار تصمیم را در دست دارد، در حالی که چارچوب انتخاب‌ها از پیش توسط الگوریتم تعیین شده است. این توهم، یکی از خطرناک‌ترین پیامدهای شناختی حکمرانی الگوریتمی است، زیرا امکان بازاندیشی انتقادی را تضعیف می‌کند.

سازوکار دوم، شکل‌گیری وابستگی شناختی نهادی است. در سطح فردی، وابستگی شناختی به کاهش مهارت‌های تحلیلی و قضاوت مستقل می‌انجامد. اما در سطح نهادی، این وابستگی می‌تواند ساختارهای تصمیم‌گیری را به‌گونه‌ای بازپیکربندی کند که بدون توصیه الگوریتمی، تصمیم‌گیری ممکن نباشد. نهادها به‌تدریج یاد می‌گیرند که به‌جای توسعه ظرفیت‌های درونی تحلیل، به مدل‌ها و سیستم‌های بیرونی تکیه کنند. این امر، انعطاف‌پذیری نهادی را کاهش می‌دهد و توان واکنش به شرایط غیرمنتظره را تضعیف می‌کند.

سازوکار سوم، فنی‌سازی قضاوت اخلاقی است. حکمرانی الگوریتمی تمایل دارد مسائل اخلاقی و ارزشی را به متغیرهای قابل اندازه‌گیری تبدیل کند. عدالت، انصاف، مسئولیت و حتی ریسک، در قالب شاخص‌ها و وزن‌ها صورت‌بندی می‌شوند. اگرچه این فرایند می‌تواند شفافیت ظاهری ایجاد کند، اما هم‌زمان خطر فروکاستن اخلاق به محاسبه را در پی دارد. در چنین شرایطی، تصمیم‌هایی که نیازمند داوری انسانی و حساسیت اخلاقی‌اند، به نتایج عددی تقلیل می‌یابند و امکان گفت‌وگوی ارزشی محدود می‌شود.

چهارمین سازوکار، تثبیت الگوهای گذشته از طریق پیش‌بینی داده‌محور است. الگوریتم‌ها عمدتاً بر داده‌های تاریخی متکی‌اند و از این داده‌ها برای پیش‌بینی آینده استفاده می‌کنند. این رویکرد، اگرچه از نظر آماری کارآمد به نظر می‌رسد، اما می‌تواند به بازتولید نابرابری‌ها و الگوهای ناکارآمد گذشته منجر شود. از منظر شناختی، این امر به نوعی قفل‌شدگی تصمیم‌گیری می‌انجامد؛ وضعیتی که در آن امکان تصور بدیل‌ها و مسیرهای نو محدود می‌شود. در کنار این تهدیدها، حکمرانی الگوریتمی ظرفیت‌های شناختی جدیدی نیز ایجاد می‌کند. الگوریتم‌ها می‌توانند بار شناختی تصمیم‌گیران را کاهش دهند و آن‌ها را قادر سازند تا بر جنبه‌های کلان‌تر و راهبردی‌تر تصمیم‌گیری تمرکز کنند. در این معنا، الگوریتم‌ها می‌توانند به‌عنوان تقویت‌کننده شناخت انسانی عمل کنند، نه جایگزین آن. اما تحقق این ظرفیت، مستلزم طراحی آگاهانه و تنظیم دقیق نقش الگوریتم در چرخه تصمیم‌گیری است. فرصت راهبردی حکمرانی الگوریتمی در همین نقطه آشکار می‌شود. اگر الگوریتم‌ها به‌گونه‌ای طراحی شوند که شفاف، قابل تفسیر و پاسخ‌گو باشند، می‌توانند به تصمیم‌گیران کمک کنند تا پیامدهای پیچیده تصمیم‌ها را بهتر درک کنند. این امر به‌ویژه در حوزه‌هایی مانند سیاست‌گذاری کلان، مدیریت ریسک و آینده‌نگاری اهمیت دارد. الگوریتم‌ها می‌توانند سناریوهای مختلف را شبیه‌سازی کنند و امکان مقایسه پیامدها را فراهم آورند، بی‌آنکه لزوماً تصمیم نهایی را تحمیل کنند.

با این حال، بهره‌گیری راهبردی از این فرصت مستلزم بازتعریف رابطه انسان و الگوریتم است. به‌جای آنکه انسان در خدمت الگوریتم قرار گیرد، الگوریتم باید در خدمت قضاوت انسانی طراحی شود. این امر نیازمند تغییر در فرهنگ سازمانی و نهادی است؛ تغییری که در آن، خروجی الگوریتم به‌عنوان یکی از ورودی‌های تصمیم‌گیری تلقی شود، نه مرجع نهایی آن. چنین تغییری، از فرسایش عاملیت انسانی جلوگیری می‌کند و امکان یادگیری نهادی را حفظ می‌نماید.

در کشورهای دارای محدودیت زیرساختی، این بحث ابعاد مضاعفی می‌یابد. از یک سو، الگوریتم‌ها می‌توانند ابزارهایی برای جبران کمبود منابع و افزایش کارآمدی باشند و از سوی دیگر، خطر وابستگی شناختی به مدل‌ها و فناوری‌های وارداتی را افزایش دهند. اگر منطق‌های تصمیم‌سازی الگوریتمی بدون بومی‌سازی و بدون توجه به زمینه‌های اجتماعی و فرهنگی به کار گرفته شوند، تهدید شناختی آن‌ها تشدید می‌شود. در مقابل، اگر این کشورها بتوانند چارچوب‌های بومی حکمرانی الگوریتمی طراحی کنند، الگوریتم‌ها می‌توانند به فرصتی راهبردی برای جهش نهادی بدل شوند.

در نهایت، دوگانه فرصت یا تهدید بودن حکمرانی الگوریتمی، پاسخی ساده و یک‌بعدی ندارد. این پدیده، هم‌زمان حامل ظرفیت‌های رهایی‌بخش و خطرهای محدودکننده است. آنچه سرنوشت این دوگانه را تعیین می‌کند، نه خود الگوریتم‌ها، بلکه نحوه حکمرانی بر آن‌هاست. بدون حکمرانی آگاهانه، تهدید شناختی به‌تدریج بر فرصت‌های راهبردی غلبه خواهد کرد.

آنچه در بخش‌های پیشین این یادداشت روشن شد، این است که حکمرانی الگوریتمی را نمی‌توان صرفاً در چارچوب یک ابزار فناورانه یا رویکرد مدیریتی تحلیل کرد. این پدیده، در سطحی عمیق‌تر، به بازتعریف نسبت انسان، عقلانیت و تصمیم‌گیری در عصر دیجیتال می‌انجامد. پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی، در واقع پرسشی درباره آینده عاملیت انسانی، کیفیت حکمرانی و ظرفیت جوامع برای حفظ توان قضاوت و مسئولیت‌پذیری در مواجهه با پیچیدگی فزاینده است.

حکمرانی الگوریتمی زمانی به تهدید شناختی بدل می‌شود که منطق بهینه‌سازی، جایگزین منطق قضاوت شود. در چنین وضعیتی، تصمیم‌گیری به فرایندی تقلیل می‌یابد که هدف آن یافتن کارآمدترین پاسخ بر اساس داده‌های موجود است، بی‌آنکه به زمینه‌های اجتماعی، اخلاقی و تاریخی توجه شود. این تقلیل‌گرایی شناختی، به‌تدریج توان انسان برای اندیشیدن در باب بدیل‌ها، امکان‌ها و پیامدهای غیرمنتظره را تضعیف می‌کند. در این حالت، عقلانیت انسانی نه تقویت، بلکه محدود می‌شود.

در مقابل، حکمرانی الگوریتمی زمانی می‌تواند به فرصت راهبردی بدل شود که به‌عنوان سازوکاری برای پشتیبانی از قضاوت انسانی طراحی گردد. در این رویکرد، الگوریتم‌ها نقش افزاینده شناخت را ایفا می‌کنند؛ یعنی به انسان کمک می‌کنند تا پیچیدگی‌ها را بهتر درک کند، نه اینکه جایگزین او در تصمیم‌گیری شوند. این تمایز ظریف اما بنیادین است. تفاوت میان الگوریتم به‌مثابه ابزار فهم و الگوریتم به‌مثابه مرجع تصمیم، تفاوت میان تقویت عاملیت انسانی و فرسایش آن است.

از منظر حکمرانی، این تمایز پیامدهای نهادی مهمی دارد. اگر الگوریتم‌ها به‌عنوان مرجع نهایی تصمیم‌سازی به کار گرفته شوند، ساختارهای پاسخ‌گویی تضعیف می‌شوند. تصمیم‌ها به خروجی‌های فنی نسبت داده می‌شوند و مسئولیت انسانی در لایه‌های پیچیده فنی گم می‌شود. اما اگر الگوریتم‌ها به‌عنوان ابزار تحلیل و سناریوسازی مورد استفاده قرار گیرند، مسئولیت تصمیم همچنان بر عهده انسان و نهاد باقی می‌ماند. در این حالت، الگوریتم به‌جای پوشاندن مسئولیت، امکان تصمیم‌گیری آگاهانه‌تر را فراهم می‌آورد.

یکی از عناصر کلیدی در تبدیل حکمرانی الگوریتمی به فرصت راهبردی، طراحی سازوکارهای بازخورد شناختی است. این سازوکارها باید به‌گونه‌ای عمل کنند که خطاها، سوگیری‌ها و پیامدهای ناخواسته تصمیم‌های الگوریتمی را آشکار سازند و امکان بازاندیشی را فراهم آورند. بدون چنین چرخه‌های بازخوردی، حکمرانی الگوریتمی به سیستمی خودتقویت‌شونده بدل می‌شود که خطاهایش را بازتولید می‌کند و اصلاح‌ناپذیر می‌گردد.

اخلاق در این چارچوب نقشی صرفاً هنجاری یا تزئینی ندارد، بلکه بخشی از معماری شناختی حکمرانی است. اخلاق به‌مثابه سازوکاری برای توقف، پرسش و بازاندیشی عمل می‌کند؛ سازوکاری که مانع از آن می‌شود که تصمیم‌گیری به فرایندی صرفاً محاسباتی تقلیل یابد. در حکمرانی الگوریتمی انسان‌محور، پرسش‌های اخلاقی نه پس از تصمیم، بلکه در دل فرایند تصمیم‌سازی مطرح می‌شوند. این امر مستلزم آن است که الگوریتم‌ها قابل تفسیر، قابل پرسش و قابل اصلاح باشند.

در سطح راهبردی، این بحث برای کشورهایی که با محدودیت‌های زیرساختی و فناورانه مواجه‌اند، اهمیت مضاعف دارد. برای این کشورها، حکمرانی الگوریتمی می‌تواند مسیری برای جهش نهادی باشد؛ جهشی که نه از مسیر انباشت سخت‌افزار، بلکه از مسیر طراحی منطق‌های تصمیم‌سازی و مدیریت شناختی فناوری محقق می‌شود. اما این جهش تنها در صورتی ممکن است که حکمرانی الگوریتمی به‌صورت فعال و آگاهانه طراحی شود، نه آنکه به‌صورت منفعلانه وارداتی و تقلیدی پذیرفته شود.

در غیر این صورت، الگوریتم‌ها به حاملان منطق‌های تصمیم‌سازی بیگانه بدل می‌شوند؛ منطق‌هایی که ممکن است با زمینه‌های اجتماعی، فرهنگی و ارزشی جامعه هم‌خوانی نداشته باشند. این وضعیت، نوعی استعمار شناختی ایجاد می‌کند که در آن تصمیم‌ها به‌ظاهر عقلانی، اما در عمل بیگانه با واقعیت‌های محلی‌اند. از این‌رو، حکمرانی الگوریتمی برای چنین کشورهایی هم فرصت و هم تهدید است؛ فرصتی برای بازتعریف جایگاه خود در نظم جهانی و تهدیدی برای از دست دادن استقلال شناختی.

در نهایت، پرسش از فرصت یا تهدید بودن حکمرانی الگوریتمی را باید به پرسش از چگونه حکمرانی‌کردن بر الگوریتم‌هاتبدیل کرد. الگوریتم‌ها خود نه خیر مطلق‌اند و نه شر مطلق. آنچه تعیین‌کننده است، چارچوب‌های نهادی، اخلاقی و شناختی‌ای است که در آن‌ها به کار گرفته می‌شوند. آینده حکمرانی، به‌ویژه در عصر دیجیتال، به توان جوامع در طراحی این چارچوب‌ها بستگی دارد.

اگر حکمرانی الگوریتمی بدون توجه به پیامدهای شناختی و اخلاقی گسترش یابد، به‌تدریج به تهدیدی برای توان تصمیم‌گیری انسانی بدل خواهد شد. اما اگر با درک عمیق از محدودیت‌ها و ظرفیت‌های آن همراه شود، می‌تواند به یکی از مهم‌ترین فرصت‌های راهبردی برای ارتقای کیفیت حکمرانی تبدیل گردد. در این معنا، حکمرانی الگوریتمی نه نقطه پایان عاملیت انسانی، بلکه آزمونی تاریخی برای بازتعریف آن است.

جهت دانلود فایل پی دی اف یادداشت اینجا کلیک کنید.

دکتر مهدی حمزه پور

دانشیار گروه علوم تصمیم و سیستم‌های پیچیده دانشکده مدیریت دانشگاه امام صادق (ع)

مشاور رئیس و رئیس اندیشکده فناوری نرم دانشگاه امام صادق (ع)

اشتراک گذاری:
برچسب ها: #دکتر_مهدی_حمزه‌پوراندیشکده_فناوری_نرمحکمرانی الگوریتمی
در تلگرام
کانال ما را دنبال کنید!
Created by potrace 1.14, written by Peter Selinger 2001-2017
در آپارات
ما را دنبال کنید!

مطالب زیر را حتما مطالعه کنید

به سوی فهم فناوری نرم (72)
به سوی فهم فناوری نرم (72) حُکمرانی الگوریتمی؛ منطق نوین قدرت در جهان دیجیتال تحولاتی...
به سوی فهم فناوری نرم (71)
  به سوی فهم فناوری نرم (71) تحلیلِ سیستمیِ چندسطحیِ فناوری های نرمِ بحرانِ دی‌ماهِ...
به سوی فهم فناوری نرم (70)
به سوی فهم فناوری نرم (70) گذار از تفکر تزئینی به تفکر راهبردی در فناوری...
به سوی فهم فناوری نرم (69)
به سوی فهم فناوری نرم (69) فناوری نرم؛ زیرساخت قدرت آینده ایران مقدمه : از...
به سوی فهم فناوری نرم (68)
به سوی فهم فناوری نرم (68) ایرانِ نرم؛ نقشه‌راه تحول حکمرانی فناوری‌های نرم تحول در...
به سوی فهم فناوری نرم (67)
به سوی فهم فناوری نرم (67) شِعر؛ فَناوریِ نَرمِ هنرمندانه یِ محتوا و پیام در...

دیدگاهتان را بنویسید لغو پاسخ

جستجو برای:
دسته‌ها
  • اخبار
  • معرفی کتاب
  • مقالات فناوری نرم
  • هسته مدیریت رسانه
  • یادداشت های فناوری نرم
نوشته‌های تازه
  • به سوی فهم فناوری نرم (73)
  • به سوی فهم فناوری نرم (72)
  • کرسی ترویجی همگرایی دانش
  • به سوی فهم فناوری نرم (71)
  • به سوی فهم فناوری نرم (70)
softtechisu
  • تهران، سعادت آباد، پل مدیریت، دانشگاه امام صادق، اندیشکده فناوری نرم
  • 02188080733
  • 02188080733
  • softtechisu.com@gmail.com
فهرست اندیشکده
  • حساب کاربری من
  • سبد خرید
  • از ما بپرسید
  • سیاست ها و قوانین سایت
این سایت متعلق به تیم اندیشکده فناوری نرم دانشگاه امام صادق (ع) می باشد

ورود

رمز عبور را فراموش کرده اید؟

هنوز عضو نشده اید؟ عضویت در سایت