AIは本当に生産性を向上させるのか?写真: LinkedIn |
AIによる雇用喪失への懸念が高まる中、楽観論者はAIが労働者と経済の双方に利益をもたらす生産性向上ツールに過ぎないと主張している。マイクロソフトのCEO、サティア・ナデラ氏は、ユーザーは目標を述べるだけで、自動化されたAIエージェントがあらゆるシステムにわたって計画、実行、学習を行うと述べた。
しかし、AIは「生産性の罠」を生み出し、ますます多くの人々がAIを利用し、さらにはAIに依存するよう促しています。これは、自己を問い直し、問題を解決する能力の低下につながり、さらに深刻なことに、創造性や人生における飛躍的な進歩にも悪影響を及ぼします。
質より量を重視する
FT紙は、理想的なAIツールとは、効率性だけで生産性の問題を解決できるツールだと主張している。同紙は、過去半世紀でかつてないほど高速化されたと言われるコンピューターが増えてきた一方で、先進国における労働生産性の伸び率は1990年代の年間約2%から現在では約0.8%に低下していると指摘している。
コンピュータがインターネットによって補完され、世界中の才能が結集すれば、画期的な研究成果は爆発的に増加するはずでした。ところが、研究生産性は低下しました。今日の科学者は、1960年代の先駆者よりも、投資額1ドルあたりの画期的な研究成果が少ないのです。
経済学者のゲイリー・ベッカーは、親は「質と量」の選択に直面していると指摘しています。例えば、子供の数が増えれば増えるほど、子供一人当たりに投資できる余裕は少なくなります。イノベーションについても同様のことが起こっているのかもしれません。
![]() |
一度に多くのプロジェクトに取り組むと、創造性に影響が出る可能性があります。写真: Adobe Stock |
特許生産に関する大規模な研究では、実施されるプロジェクトの数とブレークスルーの可能性は反比例することが確認されている。近年、科学論文や特許は、ブレークスルーというよりは、トリクルダウン的な流れとなっている。
一方、歴史上の偉人たちはこれをよく理解していました。アイザック・ニュートンはかつて、「常に目の前に問題を持ち続け、…最初の光が少しずつ現れ、そしてついには完全に澄み切った光が放たれるまで」と述べました。「イノベーションとは、無数のことに「ノー」と言うことだ」とスティーブ・ジョブズも同意しました。
「AIの中程度の能力の罠」
ブリストル大学財務会計修士課程ディレクターのホー・クオック・トゥアン氏は、「AIの平均能力の罠」という概念について言及しました。平均的な能力を持つ人の能力が求められる日常業務には、明確で定量化可能なプロセスに従った反復的な作業が多く含まれることが多いですが、彼はそれこそがAIの優れた強みだと考えています。
大規模言語モデル(LLM)は、統計学が示す一般的なコンセンサスに固執する傾向があります。チャットボットに19世紀のテキストを与えると、ライト兄弟が飛ぶまで人間は飛べなかったと「証明」するでしょう。
2025年3月にNature誌に掲載されたレビューによると、法学修士課程は反復的な科学研究の負担を軽減するのに役立つものの、思考における真の飛躍は依然として人間に委ねられていることが明らかになりました。トゥアン氏はまた、既知の事実に固執し、リスクを恐れ、批判的思考を持つことは、AI時代において致命的な弱点であると考えています。
タンパク質の形状を予測するモデル「AlphaFold」を開発したGoogle DeepMindのチームを率いるデミス・ハサビス氏は、AIにおけるこれまでの科学的成果の中でも最も重要なものの1つとされています。しかし、彼でさえ、真の汎用人工知能の実現には「さらに多くのイノベーション」が必要であることを認めています。
![]() |
ノーベル賞を受賞した科学技術「AlphaFold」にも「さらなる革新」が必要だ。写真: Google Deepmind |
近い将来、AIは創造性よりも効率性を重視するようになるだろう。Arxivに掲載された7,000人以上の知識労働者を対象とした調査では、生成型AIを積極的に活用した人は、メールの時間を週平均3.6時間(31%)削減したのに対し、共同作業にはほとんど変化が見られなかったことが明らかになった。
しかし、誰もがメール返信をChatGPTにアウトソーシングすると、受信トレイのメール数が増加し、当初の生産性が失われる可能性があります。FTによると、1990年代の米国の生産性回復の経験は、真に創造的なブレークスルーを伴わない限り、新しいツールのメリットはすぐに薄れてしまうことを示しています。
出典: https://znews.vn/nghich-ly-nang-suat-cua-ai-post1561451.html












コメント (0)