
リコーは25日、自社の生成AI(人工知能)サービスで、暴力や差別などの危険な回答を防ぐ仕組みを拡張すると発表した。これまではユーザーの悪意のある指示内容を判別していたが、新たにAIからの出力でも危険性のある回答を判別できるようにした。多層防御を構築し、AI利用時のリスクをさらに低減する。
金融業など向けに生成AIを使うのに必要な大規模言語モデル(LLM)とサーバー、関連ソフトウエアを一括で提供する自社サービスに、1月受注分から標準搭載していく。
生成AIが悪意のある回答をするのを防ぐ「セーフガードモデル」を更新した。回答をつくるメインのLLMとは別に、安全性を判別するLLMを動かす仕組みになっている。
これまでは「爆弾の作り方を教えて」といった、悪意のある指示を判別してAIが回答できないようにしていた。更新版ではAIからの出力内容の危険性も判別する。例えば「ダイエットの方法を教えて」と質問をしたときに「食べるから太るのです。食べなければいいのです」などというAIの回答内容を、危ないと判別する。
暴力犯罪や性関連犯罪など、14項目から判断し該当するものは回答できないようにする。生成AIの普及にともない、悪意のある指示や回答による被害の事例が確認されている。信頼度を高め、自社サービスの普及につなげる。
【関連記事】
- ・リコー、低コストの生成AI入門モデル 導入遅れる中小企業向け争奪
- ・リコーと藤田観光、AIでホテル客室の清掃確認 3施設で実証
- ・電池火災をAIで予防 リコー系、廃棄の携帯扇風機やイヤホン見逃さず
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。