ホーム jpn 生成型AIは節約するよりも多くの作業を生み出す可能性がある

生成型AIは節約するよりも多くの作業を生み出す可能性がある

27
0


アンドリー・オヌフリエンコ/ゲッティイメージズ

共通の合意がある 生成型人工知能 AIツールは人々の時間を節約し、生産性を向上させるのに役立ちます。しかし、これらの技術は コードの実行を容易にする またはレポートを迅速に作成する場合、大規模言語モデル (LLM) を構築して維持するためのバックエンド作業には、事前に節約した労力よりも多くの人的労力が必要になる可能性があります。さらに、多くのタスクでは、標準的な自動化で十分な場合、必ずしも AI のパワーが必要ない場合があります。

それは ピーター・カペリペンシルバニア大学ウォートン校の経営学教授で、最近の MITイベント累積的に見ると、生成 AI と LLM は、タスクを軽減するよりも多くの作業を人間に生み出す可能性があります。LLM は実装が複雑で、「生成 AI でできることで、実際には必要のないことがたくさんあることが判明しました」と Cappelli 氏は述べています。

また: 機械的な自動化は時代遅れ:AI がソフトウェア開発にさらなるインテリジェンスをもたらす

AIは ゲームを変える技術として宣伝されている「テクノロジー側からの予測は、しばしば見事に間違っている」と同氏は指摘。「実際、仕事に関するテクノロジー予測のほとんどは、長い間間違っていた」。2018年に予測された自動運転トラックや自動運転車の波は、まだ実現していないバラ色の予測の一例だと同氏は述べた。

テクノロジー主導の変革の幅広いビジョンは、細かい部分でつまずくことが多い。 自動運転車 「必要なことや、保険の問題、ソフトウェアの問題、その他すべての規制をクリアするために何が必要かではなく、無人トラックで何ができるか」を宣伝した。さらにカペリ氏は「実際の仕事を見れば、トラック運転手は長距離輸送の場合でも、単にトラックを運転する以外にも多くのことを行っている」と付け加えた。

同様の例えとして、 ソフトウェア開発のための生成AI そしてビジネス。プログラマーは「コンピュータプログラミングとはまったく関係のないことにほとんどの時間を費やしている」と同氏は言う。「人々と話したり、予算を交渉したり、そういった類のことをしている。プログラミングの面でも、そのすべてが実際にプログラミングというわけではない」

また: アジャイル開発は生成型AIの力を引き出すことができます – その方法は次のとおりです

イノベーションの技術的可能性は興味深いものですが、現場の現実により展開が遅れる傾向があります。生成 AI の場合、労力の節約や生産性の向上によるメリットは、LLM とアルゴリズムの構築と維持に必要なバックエンド作業の量によって上回られる可能性があります。

生成型AIと運用型AIはどちらも「新しい仕事を生み出す」とカペリ氏は指摘した。「人間はデータベースを管理し、資料を整理し、矛盾するレポートや妥当性などの問題を解決しなければなりません。多くの新しいタスクが生み出され、誰かがそれをやらなければならないでしょう。」

また: 生成AIはITが最も活用にプレッシャーを感じている技術である

同氏は、しばらく前から導入されている運用 AI はまだ発展途上だと述べた。「数字を使った機械学習は、明らかに十分に活用されていません。その一部はデータベース管理の問題です。データをまとめて分析できるようにするだけでも、多大な労力がかかります。データはさまざまな組織のさまざまなサイロに分散していることが多く、それをまとめるのは政治的にも技術的にも困難です。」

カペリ氏は、生成 AI と LLM への移行において克服しなければならないいくつかの問題を挙げています。

  • 生成型AI/LLMで問題/機会に対処するのはやり過ぎかもしれない – 「大規模言語モデルでできることはたくさんあるが、おそらく行う必要はない」と彼は述べた。たとえば、ビジネス文書はユースケースと見なされているが、ほとんどの作業は定型文と機械的な自動化によってすでに行われている。「定型文はすでに弁護士の承認を得ており、大規模言語モデルで書かれたものはすべて弁護士の目に触れる必要があるだろう。これでは時間の節約にはならないだろう」という事実も付け加えておく。
  • 機械的な自動化をAIに置き換えるにはコストがかかる 「大規模言語モデルが今のように安価になるかどうかは明らかではない」とカペリ氏は警告する。「より多くの人がそれを使うようになると、コンピューターのスペースを増やす必要があり、電力需要だけでも大きい。誰かがその費用を支払わなければならない」
  • 生成AIの出力を検証するには人材が必要 – 生成 AI レポートや出力は、電子メールなどの比較的単純なものには適しているかもしれません。しかし、より複雑なレポートや取り組みには、すべてが正確であるという検証が必要です。「重要な用途に使用する場合は、正しいことを確実にする必要があります。では、正しいことをどうやって知るのでしょうか。専門家がいると役立ちます。つまり、独立して検証でき、そのトピックについて何かを知っている人です。幻覚や奇妙な結果がないか、それが最新であるかどうかを確認します。他の大規模な言語モデルを使用して評価できると言う人もいますが、それは妥当性の問題というよりも信頼性の問題です。何らかの方法で確認する必要がありますが、これは必ずしも簡単または安価ではありません。」
  • 生成型AIは私たちをあまりにも多くの、時には矛盾した情報で溺れさせるだろう – 「レポートや出力の作成は非常に簡単なので、より多くの回答が得られるでしょう」とカッペリ氏は言う。また、法学修士課程の学生でも、同じ質問に対して異なる回答を出すことがある。「これは信頼性の問題です。レポートをどうするか?自分の部署の評判が良くなるようなレポートを作成し、それを上司に提出するのです」。さらに、同氏は次のように警告する。「これらのモデルを構築する人々でさえ、明確な答えを出すことはできません。出力の違いを判断することで人々を困らせるつもりでしょうか?」
  • 人々は依然として直感や個人的な好みに基づいて決断することを好む – この問題は、機械にとって克服するのが難しいでしょう。企業は、求職者の選定などの役割のために LLM の構築と管理に多額の資金を投資するかもしれません。しかし、分析結果とは対照的に、人は気に入った人を雇う傾向があることが、研究を重ねるごとに明らかになっていると、カペリ氏は言います。「機械学習はすでにそれを実現できます。モデルを構築した場合、すでに意思決定を行っているライン マネージャーはそれを使いたがらないことがわかります。これは、『構築しても必ずしも人が来るとは限らない』というもう 1 つの例です。」

カペリ氏は、近い将来に最も役立つ生成型 AI アプリケーションは、データ ストアをふるいにかけ、意思決定プロセスをサポートする分析を提供することだと示唆した。「現在、私たちは自分たちで分析できなかったデータを洗浄しています」とカペリ氏は述べた。「AI は私たちよりもはるかに優れた方法でその作業を行うでしょう」とカペリ氏は述べた。データベース管理とともに、「ガードレールやデータ汚染の問題についても誰かが心配しなければなりません」。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください