Vietnam.vn - Nền tảng quảng bá Việt Nam

AI技術を利用する際のメディア従事者の倫理

Báo Quốc TếBáo Quốc Tế27/10/2024

私たちは第4次産業革命の時代に生きており、人工知能(AI)は社会生活の多くの分野において徐々に不可欠な存在になりつつあります。人々と出来事をつなぐ情報の架け橋として、メディアもこの流れから逃れることはできません。


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
AI技術に関するワークショップに出席するベトナムジャーナリスト協会ジャーナリズム研修センター所長、グエン・ティ・ハイ・ヴァン氏。(出典:ベトナムジャーナリスト協会)

AIがもたらすメリットを最大限に活用するためには、情報伝達における信頼性と倫理性を確保しながら、AIを効果的に活用するための知識を身につける必要があります。

AIの「熱さ」から

AI(人工知能)が今日最もホットなキーワードの一つであることは明白です。2024年9月、Google検索で「AI」というキーワードを0.3秒で検索すると、159億件の検索結果が記録されました。一方、「AIツール」というキーワードでは、0.4秒で34億件以上の検索結果が記録されました。これらの膨大な数字は、AIとAIベースのツールに対する世界的な関心の高さを示しています。

現在、メディア業界をはじめ、様々な分野でAIツールがますます登場しています。広く知られているChatGPT以外にも、特化したタスクに特化したAIアプリケーションが数多く開発されています。例えば、チャットボットタスクグループ向けのBing AI、Clause、Zapier Central、コンテンツ作成タスク向けのJasper、Copy.ai、Anyword、 動画制作・編集タスク向けのDescript、Wondershare、Runway、画像作成タスク向けのDALL-E3、Midjourney、Stable Diffusion、音声コンテンツタスク向けのMurf、AIVAなど、数え切れないほどのツールが挙げられます。また、最近では巨大企業Amazonも、「創造性を刺激し、より多くの価値をもたらす」ことを目指し、自社開発のAIツール「Video Generator」と「Image generator」を発表しました。

AI ツールは規模や専門性のレベルが非常に多様ですが、本質的にはテクノロジーには 2 つの共通点があります。AI ツールは、AI ツールを「トレーニング」するためのアルゴリズムとデータに基づいて開発されます。

メディアにおけるAI利用の倫理的管理

AIツールがもたらす利便性は否定できません。技術革新の急速なスピードに伴い、メディア業界において、単純なものから複雑なものまで、あらゆるタスクに対応する専門性の高いAIツールがあらゆる場所に出現するでしょう。こうした圧倒的な発展に伴い、メディア業界におけるAIツールの開発と利用における倫理的管理の問題について多くの疑問が生じています。AIツールのアルゴリズムやデータが、コミュニティに害を及ぼすような方法で操作された場合、どうなるのでしょうか?AIツールが学習に使用する入力データの知的財産権は誰が保証するのでしょうか?AIツールがもたらす害の程度は誰が評価するのでしょうか?

同じタスクにおいて、AIツールにアクセスできるグループとアクセスできないグループの間に不平等は存在するのでしょうか?特にメディアやソーシャルネットワークなど、多くの人々に大規模に影響を与える可能性のあるデリケートな分野において、AIツールによる制御不能な危害の潜在的なレベルについて疑問が提起されています。

上記の懸念を認識し、多くの組織、協会、政府、さらにはAIツールを開発する企業や法人でさえ、AI技術における倫理的管理の問題に関する勧告、説明、さらには行動規範を発表しています。2021年に193カ国で採択された「人工知能の倫理に関する宣言 - 国連教育科学文化機関(UNESCO)勧告」は、「人工知能(AI)の急速な発展は、医療診断の支援からソーシャルメディアを通じた人と人とのつながりの実現、自動化されたタスクによる労働効率の向上まで、世界中で多くの機会を生み出している」と明確に述べています。

しかし、こうした急速な変化は深刻な倫理的懸念も引き起こしています。AIに関連するこうしたリスクは、既存の不平等を悪化させ始めており、既に不利な立場にあるグループにさらなる害をもたらしています…」。そしてそこから、「ユネスコに対し、加盟国を支援するためのツールの開発を要請します。これには、政府がすべての国民のために倫理的かつ責任ある形でAIを導入する準備状況を包括的に把握するためのツールである準備状況評価手法が含まれます。」

UNESCOは、世界的な取り組みの一環として、グローバルAI倫理・ガバナンス・オブザーバトリー(AI倫理・ガバナンス・オブザーバトリー)を設立しました。ユネスコによると、このオブザーバトリーは「各国のAI倫理と責任ある導入の準備状況に関する情報を提供する」とのことです。また、AI倫理に関する幅広い問題に関する貢献、影響力のある研究、ツールキット、そして前向きな実践を結集するAI倫理・ガバナンス・ラボも運営しています。

UNESCOのような国際機関に加えて、多くの専門団体も独自の基準の策定に取り組んでいます。例えば、世界中から数千人の会員を擁するIABC(国際ビジネスコミュニケーション協会)は、コミュニケーション専門家によるAIの倫理的利用を導くための一連の原則を策定しました。これは、IABC倫理規定のAIへの関連性についてIABC会員に指針を与えることを目的としています。これらのガイドラインは、AI技術の発展に合わせて、時間の経過とともに更新および補足される可能性があります。この原則には、コミュニケーション専門家が遵守すべき多くの具体的なポイントが含まれています。例えば、

「メディア業界への敬意と信頼を育む、ポジティブで透明性の高い体験を生み出すためには、AIリソースは人間主導で活用されなければなりません。AIツールがもたらす専門的機会とリスクについて常に情報を得ることが重要です。情報は正確、客観的、そして公平に伝達されなければなりません。AIツールは多くのエラー、不一致、その他の技術的な問題に直面する可能性があります。そのため、AI生成コンテンツが正確で透明性があり、盗作ではないことを人間が独自に検証する必要があります。」

他者の個人情報および/または機密情報を保護し、許可なく使用しません。AIの出力は、人間の関与と、AIがサービスを提供するコミュニティへの理解に基づいて評価します。可能な限り偏見を排除し、他者の文化的価値観や信念に配慮します。

第三者による文書、情報、または参考文献が正確であり、必要な帰属表示と検証がなされ、適切なライセンスまたは使用許可を得ていることを確認するために、必要な専門的厳格さをもって、自らの成果物を独立して事実確認および検証しなければなりません。専門的な成果物におけるAIの使用を隠蔽または偽装しようとしてはなりません。AIのオープンソースの性質、および虚偽、誤解を招く、または欺瞞的な情報の記載を含む機密保持に関する問題を認識してください。

AIツールを所有、開発、販売する企業や法人は、AIツールの仕組みを誰よりも深く理解しており、AIツールが動作する基盤となるアルゴリズムや、AIツールの学習に用いるデータについても熟知しています。そのため、これらの企業はAI開発における倫理原則に関する情報も提供する必要があります。実際、この問題に関心を持つ企業も存在します。

Googleは、重大な危害リスクがある分野ではAIツールの開発を行わないことを確約しています。開発のメリットがリスクを大幅に上回り、適切な安全対策を講じた場合にのみ開発を進めます。主な目的または展開が人身傷害を引き起こす、または直接的に人身傷害を助長することを目的とする武器やその他のテクノロジー。国際的に認められた規範に違反する監視目的で情報を収集または使用するテクノロジー。国際法および人権に関する一般に認められた原則に違反する目的を持つテクノロジー。

セキュリティと安全性の面では、Googleは次のように誓約しています。「私たちは、危害のリスクをもたらす意図しない結果を回避するため、堅牢なセキュリティと安全性の対策を継続的に開発・実装していきます。AIシステムは適切な注意力を備えて設計し、AI安全性研究におけるベストプラクティスに沿って開発に努めます。AI技術の開発と利用には、Googleのプライバシー原則を組み込みます。通知と同意の機会を提供し、プライバシー保護アーキテクチャを推奨し、データ利用に関する適切な透明性と管理を提供します。」

Googleと同様に、MicrosoftもAIの原則とアプローチに関する声明を発表し、「私たちは、AIシステムが責任を持って、人々の信頼を確保する方法で開発されることに尽力しています…」と強調しました。さらに、AmazonやOpenAIなど、AIツールの開発に多額の投資を行っている大手テクノロジー企業も、何らかの形で独自のコミットメントを表明しています。

歴史上、テクノロジーにはプラス面とマイナス面という二面性があることは、多くの事例で証明されています。AIは非常に「ハイテク」な技術プラットフォームではあるものの、依然として人間が開発・収集したアルゴリズムとデータに基づいており、同時に、多くのAI製品は、それを所有する企業の事業計画の一部となっています。

したがって、技術面だけでなく、製品開発・管理チーム自体にも常に潜在的なリスクが存在します。ここで問題となるのは、AIツールがコミュニティの社会経済レベルにまで及ぶ、大多数の人々への影響の大きさです。AI技術の利用における倫理的管理へのタイムリーな配慮は、国連などの大規模な国際機関、政府、業界団体、そして何よりも技術開発部門の参加によって、歓迎すべき兆候となっています。

しかし、AIツールのリストは継続的に新しいバージョンをリリースし、それぞれが以前のものよりも洗練され複雑になっているため、コード、原則、ガイドラインもタイムリーに更新および補足する必要があり、さらに、AI技術全般、特にメディア従事者における倫理的管理に準拠する能力が最高の効率を達成できるフレームワーク内で、製品開発者とユーザーを予防、制限、および制御するために積極的に取り組む必要があります。


[広告2]
ソース

コメント (0)

ぜひコメントして、あなたの気持ちをシェアしてください!

同じトピック

同じカテゴリー

ホーチミン市のノートルダム大聖堂は2025年のクリスマスを迎えるために明るくライトアップされている
クリスマスシーズンに向けてハノイの女の子たちが美しく「着飾る」
嵐と洪水の後、明るくなったザライ県の旧正月の菊の村は、植物を守るために停電が起きないことを願っている。
中部地方の黄杏の首都は二重の自然災害で大きな損失を被った

同じ著者

遺産

人物

企業

ダラットのコーヒーショップ、オーナーが「武術映画」の役を演じたため客が300%増加

時事問題

政治体制

地方

商品

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC