ChatGPTの解説書を読んでいたら、便利さとともに危険性についても書かれていた。 危険性の大きな理由は、AI技術の性質から ChatGPT がどのように文章を理解しているかは全くブラックボックスだということだ。入力の文章に対し、それがなぜ出力の文章を生み出すのかその経緯は全くわからない。 したがって、教育用のデータの与え方によっては、危険な思想や誤った情報が紛れ込むことが避けられない。ChatGPT が非常に危険な AI になったとしてもそれをきちんと把握することが難しいのだ。 どうやら、AI に任せればすべてはパラ色の世界が待っているということはないようだ。備えよ常にという心構えは避けられない。 また、AI による人間の作業の自動化と雇用の減少も起こるべくして起こるだろう。AI の性能が上がれば上がるほど人間の作業が不要になってくるだろうし、そのような傾向を押しとどめるものは何もない。 AI が吉と出るか凶と出るかは人間しだいだ。短期的な利益だけでなく長期的な展望も必要だ。 ChatGPTの文書処理がブラックボックスであるということは、その回答にも誤謬が紛れている可能性を常に意識していないといけないということを意味する。クリティカルな業務に使う場合、必ず Google 検索や書籍などで検証する必要があるだろう。
by tnomura9
| 2023-03-16 07:44
| 考えるということ
|
Comments(0)
|
カテゴリ
新型コロナウイルス 主インデックス Haskell 記事リスト 圏論記事リスト 考えるということのリスト 考えるということ ラッセルのパラドックス Haskell Prelude Ocaml ボーカロイド 圏論 jQuery デモ HTML Python ツールボックス XAMPP Ruby ubuntu WordPress 脳の話 話のネタ リンク 幸福論 キリスト教 心の話 メモ 電子カルテ Dojo JavaScript C# NetWalker ed と sed HTML Raspberry Pi C 言語 命題論理 以前の記事
最新のトラックバック
最新のコメント
ファン
記事ランキング
ブログジャンル
画像一覧
|
ファン申請 |
||