Vietnam.vn - Nền tảng quảng bá Việt Nam

خطر «انحطاط روانی» ناشی از سوءاستفاده از هوش مصنوعی

DNVN - مطالعات اخیر زنگ خطر را در مورد عواقب غیرقابل پیش‌بینی وابستگی فزاینده انسان‌ها به هوش مصنوعی (AI)، به ویژه مدل‌های زبانی بزرگ (LLM) مانند ChatGPT، به صدا درآورده‌اند.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp01/10/2025

Ảnh minh họa.

عکس تصویرسازی.

هوش مصنوعی تقریباً در تمام جنبه‌های زندگی انسان، از زندگی روزمره گرفته تا تولید، آموزش ، تحقیق و خلق آثار هنری، حضور دارد. هوش مصنوعی به افراد کمک می‌کند تا فعالیت‌های خود را بهینه کنند، بهره‌وری را افزایش دهند و منابع انسانی را کاهش دهند. انفجار هوش مصنوعی، رشد مداوم کاربردهای یادگیری ماشین و فناوری کلان‌داده را نشان داده است و هوش مصنوعی را به سطح جدیدی از توسعه سوق می‌دهد.

با وجود این مزایای بزرگ، هوش مصنوعی در معرض خطر تبدیل فرآیند خلق دانش به یک حلقه بسته، تهدید خلاقیت و «انحطاط» تفکر انسان است.

کارشناسان می‌گویند راحتی آنی استفاده از هوش مصنوعی ممکن است به قیمت هزینه‌های فکری بلندمدت تمام شود.

اختلال عملکرد مغز و «بدهی شناختی»

یک مطالعه چهار ماهه توسط موسسه فناوری ماساچوست (MIT) اثرات عمیق استفاده بیش از حد از هوش مصنوعی بر مغز انسان را روشن کرده است. این مطالعه که ۵۴ شرکت‌کننده در انشانویسی را ردیابی کرد، نشان داد که تکیه بر ابزارهای هوش مصنوعی می‌تواند عملکرد مغز و مهارت‌های تفکر انتقادی را مختل کند.

محققان با استفاده از فناوری الکتروانسفالوگرافی (EEG)، فعالیت مغزی شرکت‌کنندگان را ثبت کردند. نتایج قابل توجه بود: گروهی که از ابزار هوش مصنوعی استفاده می‌کردند، الگوهای عصبی به طور قابل توجهی متفاوتی نسبت به گروهی که فقط با ذهن خود می‌نوشتند، نشان دادند. این گروه تا ۵۵٪ اتصالات عصبی کمتری نسبت به گروهی که فقط با ذهن خود می‌نوشتند، به ویژه در مناطقی که مسئول تفکر عمیق و شکل‌گیری حافظه هستند، نشان دادند.

محققان این پدیده را «بدهی شناختی» می‌نامند. مشابه بدهی مالی که به ما اجازه می‌دهد اکنون از مزایا بهره‌مند شویم اما بعداً هزینه‌های آن را بپردازیم، بدهی شناختی زمانی رخ می‌دهد که ما تلاش ذهنی خود را به سیستم‌های خارجی واگذار می‌کنیم و باعث می‌شویم عضلات ذهنی ما به دلیل عدم استفاده تحلیل بروند. در صورت استفاده بیش از حد، هوش مصنوعی می‌تواند انسان‌ها را به مصرف‌کنندگان منفعل تبدیل کند و توانایی تفکر مستقل را از دست بدهد.

عواقب کاهش عملکرد شناختی واضح است:

اختلال حافظه : در اولین جلسه مطالعه MIT، ۸۳٪ از کاربران هوش مصنوعی قادر به استناد به نوشته‌های خود نبودند و هیچ‌کدام نتوانستند استنادهای دقیقی ارائه دهند. حتی پس از چندین جلسه، بسیاری هنوز با این کار اساسی مشکل داشتند.

تضعیف تفکر انتقادی : استفاده از هوش مصنوعی منجر به «تعامل سطحی» و تضعیف مهارت‌های تفکر انتقادی می‌شود که می‌تواند باعث تعلل و «تنبلی» شود.

کاهش فعالیت مغز : کسانی که مقاله‌های خود را با کمک هوش مصنوعی نوشتند، فعالیت مغزی به طور قابل توجهی کمتری داشتند، به طوری که نواحی مربوط به حافظه، تفکر انتقادی و عملکرد اجرایی به طور قابل توجهی کاهش یافت.

بحران خلق دانش و «فروپاشی پارادایم»

مشکل LLMها توانایی آنها در ترکیب نیست، بلکه توانایی آنها در بازیافت آنچه از قبل وجود دارد است. این سیستم‌ها دانش جدیدی تولید نمی‌کنند، بلکه داده‌های موجود را مصرف کرده و آن را دوباره توزیع می‌کنند.

برخلاف انسان‌ها که به دلایل زیادی مانند پول، شهرت، کنجکاوی یا میل به فتح دانش، همیشه به دنبال مسیرهای جدید هستند، هوش مصنوعی نمی‌تواند «چیزهای جدید» تولید کند. وقتی هوش مصنوعی بتواند تقریباً به هر سؤال پیچیده‌ای تنها در عرض چند ثانیه پاسخ دهد، پاداش خلاقیت انسان به تدریج از بین خواهد رفت.

این از دست دادن انگیزه در مورد Stack Overflow، انجمنی که برنامه‌نویسان در آن دانش خود را به اشتراک می‌گذارند، نشان داده شد: تنها در عرض ۶ ماه پس از ظهور ChatGPT، تعداد سوالات در این پلتفرم بیش از ۲۵٪ کاهش یافت و اکنون به ۹۰٪ رسیده است. این از دست دادن یک «پایگاه دانش زنده» است که در آن هر پاسخ تأیید، بحث و تکمیل می‌شود.

داده‌های پلتفرم‌هایی مانند Stack Overflow مدت‌هاست که برای آموزش ابزارهای هوش مصنوعی استفاده می‌شوند. با خشک شدن این سرچشمه دانش، هوش مصنوعی به طور فزاینده‌ای آنچه را که قبلاً تولید کرده است تکرار خواهد کرد.

این پدیده «فروپاشی مدل» نامیده می‌شود. محققان هشدار می‌دهند که وقتی مدل‌ها عمدتاً بر اساس داده‌های تولید شده توسط خود هوش مصنوعی آموزش داده می‌شوند، کیفیت دانش به تدریج ضعیف‌تر می‌شود و توانایی انعکاس تنوع و دقت دنیای واقعی را از دست می‌دهد. پروفسور هانا لی از دانشگاه کلمبیا نتیجه می‌گیرد: «نتیجه کلی این است که آنها بدتر می‌شوند. مدل‌ها بدتر می‌شوند.»

خطر همگن‌سازی و بازیافت دانش

علاوه بر کاهش شناخت فردی، سوءاستفاده از هوش مصنوعی منجر به همگن‌سازی دانش نیز می‌شود. مقالاتی که با کمک هوش مصنوعی نوشته می‌شوند، به طرز چشمگیری مشابه هستند و الگوهای «از نظر آماری همگن» را نشان می‌دهند. این امر یک تک‌فرهنگ فکری ایجاد می‌کند که در آن دیدگاه‌های متنوع انسانی از طریق یک لنز الگوریتمی یکسان فیلتر می‌شوند و به طور بالقوه تنوع خلاقانه را خفه می‌کنند.

هوش مصنوعی تمایل دارد بر الگوهای رایج در داده‌ها تأکید کند و به تدریج اطلاعات نادر، جزئیات منحصر به فرد یا داده‌هایی را که در سایه‌های آماری قرار دارند، نادیده بگیرد. اگر این روند ادامه یابد، اینترنت، که مخزنی غنی از اطلاعات است، در معرض خطر تبدیل شدن به جهانی مبهم است که در آن دانش رقیق می‌شود. بشریت می‌تواند وارد دوره‌ای از «بازیافت دانش» شود، جایی که نوآوری راکد می‌شود زیرا پاداش برای خلاقیت جدید به طور فزاینده‌ای کم‌رنگ می‌شود.

هوش مصنوعی ابزاری قدرتمند است، اما به یک رویکرد استراتژیک نیاز دارد. محققان MIT یک نشانه مثبت یافتند: شرکت‌کنندگانی که قبل از استفاده از هوش مصنوعی، پایه شناختی محکمی در خود ایجاد کرده بودند، توانستند از آن به طور مؤثرتری استفاده کنند و حتی هنگام آشنایی با این ابزار، فعالیت عصبی بیشتری نشان دادند. آنها از هوش مصنوعی به عنوان یک دستیار واقعی استفاده کردند، نه یک ابزار پشتیبانی.

دانش بشر بر پایه تلاش، کنجکاوی و شجاعت برای ورود به ناشناخته‌ها بنا شده است. با این حال، اگر هوش مصنوعی به تنها «راه‌آهن» تبدیل شود، ما در معرض خطر قرار گرفتن در یک چرخه معیوب قرار می‌گیریم که در آن هم انسان‌ها و هم ماشین‌ها مجبور به تکرار آنچه قبلاً انجام شده است، می‌شوند.

هین تائو

منبع: https://doanhnghiepvn.vn/cong-nghe/nguy-co-thoai-hoa-tu-duy-vi-lam-dung-ai/20250928033804291


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

از دهکده ماهیگیری لو دیو در گیا لای دیدن کنید تا ماهیگیرانی را ببینید که شبدر را روی دریا «نقاشی» می‌کنند.
یک قفل‌ساز قوطی‌های آبجو را به فانوس‌های رنگارنگ اواسط پاییز تبدیل می‌کند
میلیون‌ها دلار برای یادگیری گل‌آرایی و کسب تجربه‌های پیوند عاطفی در جشنواره نیمه پاییز هزینه کنید
تپه‌ای از گل‌های بنفش سیم در آسمان سون لا وجود دارد

از همان نویسنده

میراث

;

شکل

;

کسب و کار

;

No videos available

اخبار

;

نظام سیاسی

;

محلی

;

محصول

;