日々新しい発見をしたい

見たり聞いたり読んだり考えたり、そして行ったことを書いています。

信頼性の低いAIを使用して、問題が起きたときのリスクは誰が負うのでしょうか。

新しい技術に初めから完全なものはありません。

ただ、AI開発元は信頼性の低い技術を、多くのユーザに提供してよいでしょうか。

 

最近、ChatGPTを使っていて、そう思うようになりました。

 

ChatGPTの応用を考えている方がたくさんいますが大丈夫でしょうか。

信頼性がわからないものを、色々な分野に使ってよいのでしょうか。

使用してよい分野、いけない分野が明確でありません。

AIに関する有識者にはぜひこのことを明確にして頂きたいと思います。

それまでは、リスクがあるためChatGPTの利用を中止。これは正解のような気がします。

何かが起きてからでは遅いです。政府に危急の対応をお願いします。

 

ChatGPTの信頼性(たとえば質問に対する正答率)を測定した方はいますでしょうか。あまり聞いたことがありません。

AIを使用して問題や事故を起こしたときに、誰が責任をとるのか明確でありません。AIの開発企業。AIアプリを提供した企業。ユーザ。誰ですか?

ChatGPT利用者は以下を読む必要があります。

AI(人口知能)の行為による責任は誰が取るのか【AIと法律】 | IT法務・AI・暗号資産ブロックチェーンNFT・web3の法律に詳しい弁護士|中野秀俊 (it-bengosi.com)

 

現在、ChatGPTを、人命、財産、地球環境、人権、セキュリティ、社会インフラ、防衛、ビジネス(ビジネスは分野によります)に利用する場合にリスクが存在するのではないかと予想します。

ChatGPTを利用し始めた企業がありますが、リスクをどのようにとらえているのでしょうか。

 

それから、ChatGPTの開発元のOpenAIがChatGPTを無料で開放する理由は何でしょうか?

便利さ、楽しさ、作成する文書の明快さをアピールするなどの目的はあると思います。

その一方で、正答率がまだ低くそれを承知の上利用してもらい、リスクの責任を使用者にとってもらうため。

また、ChatGPTユーザは、ChatGPTの正答率を上げるためにうまく利用されているかもしれません。

正答率が99%以上のAIを無料にすることはおそらくありません。

 

AIのユーザは、自分が負う責任をよく考えてAIを利用する必要があると考えます。

 

---

AIの利用分野を決めるための一案です。

もしAIの正答率が測定できたら(正答率測定のためテストケースを作成するのに莫大な費用がかかるたえ困難と思われますが)、下に示すような指標のもとで利用分野を決めるのがよいと考えます。指標となるパーセントはAIの特性(専用、汎用など)にとって決められるべきもので、変わるかもしれません。ちなみに、60%,90%,99%は機能安全のとある指標です。

 

1.正答率が60%未満なら使用しません。

2.正答率が60%以上なら〇に使用します。

3.正答率が90%以上なら〇〇まで使用します。

4..正答率が99%以上なら〇〇〇まで使用します。

 

正答率が1の場合でも使用してよい分野があるかもしれませんが、4つに分けました。