انجیل-قرآن-و-هوش-مصنوعی

انجیل، قرآن و هوش مصنوعی

وقتی از هوش مصنوعی حرف می‌زنیم، معمولاً یاد یک ماشین دقیق و بی‌طرف می‌افتیم که فقط حساب می‌کند و نتیجه می‌دهد. اما در واقع، هوش مصنوعی بیشتر شبیه یک «مفسر» است تا یک ماشین.

هر پاسخی که یک چت‌بات یا هوش مصنوعی به ما می‌دهد، نوعی تفسیر از داده‌هایی است که از انسان‌ها یاد گرفته.

مدل‌های زبانی یا همان هوش مصنوعی، با میلیاردها جمله‌ انسانی آموزش می‌بینند. از کتاب‌ها، سایت‌ها، گفت‌وگوهای آنلاین و نوشته‌های مردم در زمان‌ها و فرهنگ‌های مختلف. اما این داده‌ها را کسی باید ابتدا انتخاب کند. توسعه‌دهندگان هوش مصنوعی تصمیم می‌گیرند چه منابع و داده‌هایی برای آموزش به هوش مصنوعی استفاده شوند و چه منابعی حذف شوند. همین تصمیم‌ها، هرچند فنی به نظر می‌رسند، باعث می‌شوند هر مدل هوش مصنوعی، دیدگاهی خاص از جهان پیدا کند.

برای مثال، اگر بیشتر داده‌ها از جوامع غربی باشند، مدل هم جهان را با زاویه‌ نگاه غربی می‌بیند. البته نه از روی عمد، بلکه چون منابعش از همان‌جاست. به این ترتیب، وقتی ما با هوش مصنوعی حرف می‌زنیم، در واقع با مجموعه‌ای از تفسیرهای انسانی روبه‌رو هستیم.

شباهت میان تفسیر دینی و تفسیر الگوریتمی

در گذشته، مفسران قرآن و انجیل با یک پرسش اساسی روبه‌رو بودند:
چطور می‌شود سخن خدا را درست فهمید، وقتی هر انسان در زمان و فرهنگی خاص زندگی می‌کند؟

کسی که هزار سال پیش آیه‌ای را تفسیر می‌کرد، دنیایش با مفسری که امروز زندگی می‌کند فرق داشت. شرایط اجتماعی، زبان، و حتی تصویر او از خدا متفاوت بود. برای همین، معنا هرگز ثابت نمی‌ماند و تفسیر با زمان تغییر می‌کرد.

امروز، همین اتفاق در دنیای فناوری هم رخ می‌دهد. فیلسوف ایتالیایی آلبرتو رومله (Alberto Romele) می‌گوید نرم‌افزار هم مثل مفسر است، چون معنا را هم می‌سازد و هم تفسیر می‌کند.

برای اینکه این حرف روشن‌تر شود، تصور کنید برنامه‌نویسی می‌خواهد کاری کند که هوش مصنوعی بفهمد وقتی کاربر می‌گوید «من سردمه»، باید دمای اتاق را بالا ببرد. او باید نیت انسانی را به زبان کامپیوتر ترجمه کند و در قالب یک دستور ساده بنویسد که مثلاً اگر کاربر گفت «سردمه»، دما را چند درجه زیاد کن. در همین لحظه، او میان زبان انسان و زبان ماشین پل می‌زند.

اما ماجرا اینجا تمام نمی‌شود. وقتی سیستم پاسخ می‌دهد و می‌گوید «دمای محیط بالا رفت»، خودش هم در حال تفسیر همان دستور است. در هر دو مرحله، هم در نوشتن دستور، هم در پاسخ دادن، احتمال تغییر معنا وجود دارد. شاید کاربر از سر خستگی گفته باشد «سردمه»، نه به‌خاطر دما. یا شاید سیستم بیش از حد واکنش نشان دهد و هوا را بیش از اندازه گرم کند.

این همان چیزی است که در تفسیر متون دینی هم اتفاق می‌افتد: هیچ ترجمه یا تفسیری، حس و نیت اصلی را دقیق منتقل نمی‌کند. به همین معنا، هر الگوریتم هم نوعی مفسر است.

آسمان-و-الگوریتم

الگوریتم‌های نژادپرست 

در دنیای فناوری، زیاد شنیده می‌شود که می‌گویند هوش مصنوعی دچار سوگیری (Bias) شده است. منظور از سوگیری این است که سیستم در تصمیم‌گیری یا نتیجه‌گیری، بی‌طرف عمل نکرده و به یک سمت خاص تمایل نشان داده است.

اما اگر از زاویه‌ تفسیر نگاه کنیم، سوگیری فقط یک خطای فنی نیست. در واقع، نوعی برداشت محدود از جهان است. هوش مصنوعی جهان را همان‌طور بازنمایی می‌کند که در داده‌هایش دیده، نه آن‌طور که در واقعیت وجود دارد. اگر داده‌ها ناقص یا یک‌طرفه باشند، تصویری که مدل می‌سازد هم ناقص خواهد بود.

پژوهشگر آمریکایی صفیه اوموجا نوبل (Safiya Umoja Noble) در کتاب خود Algorithms of Oppression نشان می‌دهدکه در سال‌های اولیه‌ شرکت گوگل، وقتی کسی عبارت «black girls» را جست‌وجو می‌کرد، نتایجی توهین‌آمیز و کلیشه‌ای نمایش داده می‌شد، در حالی که برای «white girls» نتایج خنثی و معمول بود. گرچه هیچ برنامه‌نویسی عمداً قصد بی‌احترامی نداشت و الگوریتم هم به‌خودی‌خود نژادپرست نبود. اما مشکل از داده‌ها می‌آمد، داده‌هایی که از دنیایی پر از تبعیض و نابرابری گرفته شده بودند.

در نتیجه، الگوریتم فقط همان نابرابری‌های موجود را تکرار کرد. در واقع، سوگیری (Bias) در این‌جا به معنای دشمنی یا قصد بد نیست، بلکه یعنی الگوریتم جهان را از زاویه‌ای بسیار محدود دیده است.

همین اتفاق در جاهای دیگر هم تکرار شد. مثلاً وقتی شرکت‌ها از داده‌های تاریخی استخدام خود برای آموزش سیستم‌های انتخاب نیرو استفاده کردند، مدل‌ها به‌طور ناخودآگاه زنان را نادیده گرفتند، چون در داده‌های قدیمی بیشتر کارکنان مرد بودند. در سیستم‌های تشخیص چهره نیز، چون بیشتر تصاویر آموزشی از افراد سفیدپوست بود، مدل چهره‌های تیره‌تر را کمتر و با دقت پایین‌تر تشخیص می‌داد.

به زبان ساده، الگوریتم سوگیری را اختراع نکرد، فقط آن را تکرار و خودکار کرد.

سوگیری نشان بی‌عدالتی است؟

بعد از آن‌ که موارد متعددی از سوگیری (Bias) در سیستم‌های هوش مصنوعی آشکار شد، بسیاری از شرکت‌های فناوری و دانشگاه‌ها تصمیم گرفتند دست‌به‌کار شوند. پروژه‌هایی با عنوان‌هایی مثل «هوش مصنوعی مسئولانه» (Responsible AI) یا «اخلاق در الگوریتم» شکل گرفتند.

مهندسان و پژوهشگران دوباره به سراغ داده‌هایشان رفتند و داده‌هایی که قبلا برای آموش هوش مصنوعی حذف‌ شده بودند را برگرداندند و سعی کردند تعادل بهتری میان گروه‌های مختلف داده‌ها برقرار کنند. هدف این بود که اگر بفهمیم سوگیری از کجا آغاز می‌شود، بتوانیم جلوی تکرارش را بگیریم. در ظاهر، این یک کار فنی است، اما در عمق خود یک مسئله‌ اخلاقی و فرهنگی است. چون تصمیم درباره‌ اینکه «عدالت» یعنی چه، خودش نوعی تفسیر است.

اما اینجا یک پرسش اساسی مطرح می‌شود: وقتی می‌گوییم الگوریتم‌ها دچار سوگیری (Bias) هستند، آیا منظورمان این است که هر تفاوتی میان گروه‌ها نتیجه‌ بی‌عدالتی است؟ یا گاهی این تفاوت‌ها ریشه در واقعیت‌هایی دارند که ربطی به تبعیض ندارند، مثل تاریخ، جغرافیا یا امکانات طبیعی؟

برای مثال، فرض کنید یک مدل هوش مصنوعی قرار است درباره‌ حمل‌ونقل عمومی در کشورهای مختلف یاد بگیرد. اگر بیشتر داده‌های آن از ژاپن باشد، مدل احتمالاً به این نتیجه می‌رسد که «اتوبوس همیشه سر وقت می‌رسد». اما وقتی همین مدل در کشوری به‌کار گرفته می‌شود که قطار‌ها همیشه دیر می‌رسند، پیش‌بینی‌هایش اشتباه از آب درمی‌آیند، نه چون تبعیض‌آمیز است، بلکه چون جهان را فقط از زاویه‌ کشورهای منظم‌تر دیده است.

در واقع، گاهی آنچه ما «سوگیری» می‌نامیم، حاصل تفاوت در تجربه‌ها و زمینه‌هاست، نه بدخواهی یا بی‌عدالتی.

هرمنوتیک هوش مصنوعی

غلبه‌ داده‌های غربی

اقتصاددان و اندیشمند آمریکایی توماس سووِل (Thomas Sowell) در کتاب‌های خود Conquests and Cultures (۱۹۹۸) و Wealth, Poverty and Politics (۲۰۱۵) توضیح می‌دهد که مسیر تمدن‌ها همیشه از عدالت یا ظلم تعیین نشده، بلکه از جغرافیا، منابع و شرایط طبیعی تأثیر گرفته است.

به‌گفته‌ی سووِل، تمدن‌هایی که در مناطق کوهستانی یا خشک قرار داشتند، کمتر فرصت تجارت و ارتباط داشتند، در حالی که جوامع کنار رودخانه‌ها یا مناطق معتدل زودتر به سواد و صنعت دست یافتند. این یعنی بخش زیادی از تفاوت‌های فرهنگی یا اقتصادی، نتیجه‌ تصمیم‌های اخلاقی نیست، بلکه محصول محیط و شرایط تاریخی است.

اگر این دیدگاه را به دنیای هوش مصنوعی تعمیم دهیم، می‌توان گفت داده‌هایی که امروز مدل‌های زبانی با آن‌ها آموزش می‌بینند، بیشتر از غرب آمده‌اند، اما نه به‌خاطر تبعیض عمدی، بلکه چون غرب زودتر صنعتی شد و در تکنولوژی پیشرفت کرد و در نتیجه داده‌های بیشتری از خودش به‌جا گذاشت.

در نتیجه، غلبه‌ داده‌های غربی در فضای دیجیتال، اگرچه نگاه مدل‌ها را یک‌سویه می‌کند، اما ریشه‌ی آن لزوماً اخلاقی یا سیاسی نیست، بلکه تاریخی است.

در اینجا مسئله‌ ظریفی شکل می‌گیرد. اگر بپذیریم که داده‌های جهان نابرابرند، چطور باید آن را اصلاح کرد بدون اینکه تاریخ را دستکاری کنیم؟ آیا باید داده‌های موجود را تغییر دهیم تا «عادلانه‌تر» شوند، یا باید داده‌های تازه از فرهنگ‌ها و زبان‌های دیگر تولید کنیم تا تصویر کامل‌تری از جهان بسازیم؟

راه‌حل شاید در پذیرفتن واقعیت تفاوت‌ها است، نه در انکار آن‌ها. پذیرفتن اینکه هر جامعه‌ای مسیر تاریخی خودش را داشته، به ما کمک می‌کند بدون تخریب داده‌های قدیمی، دانش جدید و متنوع‌تری بسازیم.

عدالت در هوش مصنوعی فقط به معنای «برابری نتایج» نیست، بلکه به معنای درک ریشه‌های تفاوت‌ها است. اگر تفسیر هر جامعه از حقیقت با دیگری فرق دارد، هوش مصنوعی هم باید بازتاب‌دهنده‌ این گوناگونی باشد، نه ابزاری برای یکسان‌سازی نگاه‌ها.

هرمنوتیک، پلی میان ایمان و الگوریتم

اگر از آغاز این مسیر نگاه کنیم، از تفسیر آیات تا تفسیر داده‌ها، یک چیز همیشه تکرار می‌شود: هیچ فهمی خنثی نیست.

در زمان‌های قدیم، برخی از مفسران قرآن و انجیل می‌دانستند که هر خوانش، رنگ زمان و زبان خود را دارد. امروز، توسعه‌دهندگان هوش مصنوعی در موقعیتی مشابه ایستاده‌اند. آن‌ها هم با متون و داده‌ها سروکار دارند و هر تصمیمشان درباره‌ اینکه چه چیزی را به هوش مصنوعی نشان دهند و یا چه چیزی را حذف کنند، در واقع نوعی تفسیر از جهان است.

اینجاست که مفهوم هرمنوتیک (Hermeneutik) دوباره معنا پیدا می‌کند.
هرمنوتیک در اصل، نظریه‌ تفسیر است: دانشی که می‌کوشد توضیح دهد چگونه انسان معنا را از متن می‌گیرد و چطور خودش آن معنا را بازمی‌سازد. اما امروز، هرمنوتیک فقط به دین و فلسفه تعلق ندارد، به فناوری هم رسیده است.

هوش مصنوعی، همان‌قدر که محصول منطق است، محصول تفسیر است. هر پاسخ آن، نتیجه‌ انتخاب‌ها، محدودیت‌ها و ترجمه‌هایی‌ست که انسان‌ها درونش نوشته‌اند.

در این نگاه، الگوریتم‌ها مانند مفسران هستند. همان‌طور که مفسر دینی آیه‌ای را می‌خواند و در دل زبان و فرهنگش معنا می‌کند، هوش مصنوعی هم داده‌های جهان را می‌خواند و بازتاب می‌دهد. و همان‌طور که هیچ تفسیر دینی نهایی نیست، هیچ مدل زبانی هم بی‌نقص یا بی‌طرف نیست.

این ایده‌ی بازتاب و تفسیر در فناوری، یادآور دیدگاهی است درباره‌ی حلقه ی آینه ای، جایی که ذهن در فرایند بازتاب خود معنا را می‌سازد.

اما این وضعیت لزوماً تهدید نیست. درست فهمیده‌شدن هرمنوتیک یعنی دانستن همین نکته: بی‌طرفیِ مطلق ممکن نیست، اما آگاهی از پیش‌داوری‌ها می‌تواند ما را منصف‌تر کند.

در الاهیات، در حالت ایده‌آل، مفسر کسی است که می‌داند ممکن است برداشتش اشتباه باشد و برای همین با دیگران گفت‌وگو می‌کند. در دنیای فناوری هم، توسعه‌دهنده‌ کسی است که می‌داند الگوریتمش کامل نیست و می‌کوشد آن را در گفت‌وگو با نگاه‌های دیگر اصلاح کند.

پس در نهایت، چه درباره‌ کتابی مقدس حرف بزنیم و چه درباره‌ یک مدل هوش مصنوعی، مسئله یکی است:
معنا، در گفت‌وگو شکل می‌گیرد، میان انسان و متن، میان انسان و انسان، و در نهایت میان انسان و ماشین.
همان‌طور که آیات الهی بدون مفسر زنده نمی‌مانند، داده‌ها هم بدون درک انسانی معنا پیدا نمی‌کنند.