All

最新情報

Whale、AI Verify Foundationに加入
2023-07-12
はじめに

Whaleは、シンガポールで開催されたAsia Tech x Singaporeカンファレンスにて発表された、新たに設立されたオープンソースコミュニティ「AI Verify Foundation」の一員であることを誇りに思います。このコミュニティは、AIの倫理的な活用を実現するためのテストツールの開発と普及に取り組んでいます。


Whaleは、シンガポール政府情報通信メディア開発庁が2022年にパイロット事業として立ち上げ、現在はオープンソースコミュニティに公開されている「AI Verify Foundation」の60の会員のうちの1社です。現在、同財団にはAdobe、Meta、Microsoft、AWS、Zoomなどが会員として名を連ねています。


AI Verifyについて

IMDAが提供する「AI Verify」は、組織がAIシステムのパフォーマンスを検証するための、AIガバナンステストフレームワークおよびツールキットです。AI Verifyは拡張性を備えており、例えば業種別のガバナンスフレームワークといった追加のツールキットを開発することも可能です。また、AIガバナンスにおけるオープンな連携を促進するため、AI Verify Foundationは、AIテストフレームワーク、コードベース、基準、ベストプラクティスの構築と普及に取り組んでいます。


AI Verifyのテストプロセスは、公平性、説明可能性、堅牢性という3つの原則に基づく技術的テストで構成されています。さらに、プロセスチェックは、特定された11の原則に対して実施されます。このテストフレームワークは、EU、OECD、シンガポールなど、国際的に認知されたAIガバナンス原則と整合するよう設計されています。


AI Verifyは、ユーザー組織の企業環境内で動作する統合ソフトウェアツールキットであり、ユーザーのAIモデルに対する技術的テストの実施とプロセスチェックの記録を行います。ユーザー組織は、生成されたテストレポートを共有することで、AIシステムの透明性を株主に対して示すことができます。


シンガポールのコミュニケーション・情報担当大臣であるJosephine Teo氏は、Asia Tech x Singaporeにおいて次のように述べました。

「人工知能の大きな可能性は、私たちに公共の利益のためのAI創造というビジョンを描かせます。その真の潜在能力が完全に引き出されるのは、AIをより広範な人々のためにどのように活用するかについて、より高度なコンセンサスに達したときです。シンガポールは、政府はもはや単なる規制者や実験者ではなく、AI革命における完全な参加者であると認識しています。」


AI Verify Foundationは、AIテストフレームワーク、コードベース、基準、ベストプラクティスの開発を支援するとともに、AIガバナンスのためのオープンな連携を促進します。


責任あるAIの活用は、AIシステムを導入する企業や規制当局にとって重要な課題となっています。特に、生成AIがさまざまな業界で数多くのユースケースに広がるなかで、以下のようなリスクが懸念されています:

(a)誤回答や虚偽情報
(b)プライバシーと機密性
(c)偽情報、有害表現、サイバー脅威
(d)著作権に関する課題
(e)組み込まれたバイアス

(f)価値観の不一致や人間の意図との整合性


職場やビジネスにおける人工知能(AI)の導入が進むにつれ、AIシステムに対する包括的なリスク評価の必要性はますます高まっています。本ファウンデーションの発足とAI Verifyの継続的な開発は、効果的なテストフレームワークを構築する上で不可欠な要素です。


Table of contents
Recommend
Share Article

ビジネスの成長を支援する