777投稿集 2517145


【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”

1:777 :

2023/03/30 (Thu) 23:49:30

人工知能チャットボット<ChatGPT>をはじめよう – AppFind
https://appfind.jp/s/183?msclkid=fe844fc6da501f057d962b9ddebc3451

「ChatGPT (チャットgpt) 日本語 」 – ダウンロード – 無料の2023
https://www.soft222.com/chatgpt/

日本語のChatGPT - AIチャット
https://chatgpt.org/ja


▲△▽▼


【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃” ― 投資家が必ず知るべき事実
つばめ投資顧問
2023/03/30
https://www.youtube.com/watch?v=5MorbG-PJmw

ChatGPTの革新的な技術が世界を席巻し、世界が大きく変わろうとしています。これを受けて、企業も大きな変革を求められるでしょう。生き残る企業とそうでない企業を見極めます。




【ch桜北海道】始まった?AI新時代  Chat GPT[R5/3/14]
2023/03/15
https://www.youtube.com/watch?v=UiJlDoSqom4

キャスター:門間ユウジ(キャスター)
      若狭亮子(キャスター)
2:保守保守や右翼には馬鹿しかいない :

2023/03/30 (Thu) 23:52:46

インターネット・AI は人類を一つの価値観に隷属させるための強力な怪物
https://a777777.bbs.fc2.com/?act=reply&tid=14089916

人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html

AIはホワイトカラーを労働市場から駆逐する
https://a777777.bbs.fc2.com/?act=reply&tid=14090437

「AI社会」で中間層が消える? アメリカでは高学歴のワーキングプアが増加
http://www.asyura2.com/20/reki5/msg/328.html

AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html

【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”
https://a777777.bbs.fc2.com/?act=reply&tid=14100164
3:保守保守や右翼には馬鹿しかいない :

2023/03/31 (Fri) 12:19:55

人力でGO
ホワイトカラー失業が現実化する・・Chat GPT
2023-02-25
https://blog.goo.ne.jp/ponpoko2022/e/0d2f6eebfa70ddebd99e3091bbffd97f


■ Googleを脅かす Chat GPT ■

「AIが人間を越えるのは未だ先」と思われていましたが、昨年末頃から、それが現実化するのでは無いかと言われ始めました。

各所でマイクロソフト社が出資するOpenAI社の、「大規模言語モデルAI」のChat GPTが話題になっています。「簡単な質問文を入力すると、テキストベースで答えを返してくれるソフト」というのが一般的な理解でしょう。アメリカの大学生が課題に使ったりして問題になっていますが、Google先生が登場した時を思い出します。

ところが、Chat GPTの性能は「調べもの」に留まりません。例えばChat GPTにエクセルの表をコピペして「エクセル 票集計 項目順 マクロ」などと入力すると、マクロ(簡易的なプログラム)を吐き出します。少しマクロを勉強した事がのある人が、多少修正すれば、実用的なマクロが完成します。

プログラムも言語ですから、「大規模言語モデル」はプログラムを言語として学習するのでしょう。或いは、マイクロソフトが学習させた。結果、マクロ程度の簡単なプログラムなら、瞬時に組む事が出来る様に成長した。これが他のプログラム言語で同様に学習出来るかは現状は未知数です。エクセルの表で実行される命令文は「表」に限定されているので、「限定的」で「シンプル」です。だからAIの習得も速い。

一方、汎用プログラム言語で組まれるプログラムは、処理が多様なのでAIとて容易には習得できません。しかし、プログラムを細かく分解して行けば、やっている事は至極単純です。ですから、数行から数十行レベルのプログラムの習得は言語AIは特異なはずです。誰かが根気強くプログラム言語を教えれば、エクセルのマクロ同様に様々な断片的なプログラムを作る様になるハズ。

問題はここからで、Chat GPTは無料で利用出来るので、プログラムが組めるとなれば、多くのプログラマーが利用する様になります。ここがオープンAIの真骨頂で、多くの人が繰り返し利用する事で、AIの自立学習が加速します。様々なプトグラムの質問に対して、回答を「検索」する内に「パターン化」のコツを掴んで行きます。最初はミスも多いと思われますが、その内にミスは減って行き実用に耐える様になり、いつしか人間の能力を超えて行きます。

より多くの人が利用したAIは学習機会が多いので、成長のスピードが速くなります。今、Googleは相当に焦っている様で、サンダー・ピチャイCEOが「コードレッド」を発令して、Chat GPTにデファクト・スタンダードの座を許すまじとBERTという自然言語処理モデルAIを発表して追撃します。「質問」に対して「関連度の高いページを提示」するGoogleよりも、「テキストベースで回答を書いてくれる」Chat GPTの方が、「現代の怠惰な人間」には便利だからです。Gooleの優位性は一瞬にして揺らいでいます。



■ ホワイトカラー失業が始まった ■

私は以前よりAIはホワイトカラーを労働市場から駆逐すると主張して来ました。ホワイトカラーの仕事はPCに向かって行う業務内容が多いのですが、PC内で完結する仕事はAIの得意分野です。

例えば機械翻訳ですが、以前の機会翻訳は文脈などを理解出来なかったので、かなり「変な翻訳」をしていました。だから、「機械翻訳は使い物にならない」と言われて来た。しかし、現在の機会翻訳は「かなり自然な文章」で翻訳をします。ビジネスの契約書や、書籍の翻訳以外ならば、ある程度実用に足る。

実際に翻訳を生業とする方達の働き方も変わって来ており、機械翻訳で自動翻訳されたテキストを修正したり、或いは、翻訳前の文章を機械翻訳し易い文章に手直しする仕事が多くなっている様です。現状は、「機械翻訳を上手に使っている人の生産性が向上」したと言えます。しかし、誰かの生産性が向上したという事は、別の誰かの仕事が奪われた事に等しい。

さらに、機械翻訳を使う機会が増えれば、翻訳AIは自律的に学習して、次第にミスが少なくなります。ある時点では、人間の翻訳家と同等、或いはそれ以上の能力を獲得する。そのなる時もそう遠くは無い。10年後に翻訳家という仕事がどれだけ残っているか・・・彼らは今恐怖を実感しているハズです。

先に書いた様に、プログラミングもAIの得意とする分野です。10年後にプログラマーは今の翻訳家と同じ恐怖を味わっているでしょう。



■ クリエイティブの仕事から消えていく・・ ■

AI化が話題になった時に、「単純作業はAIに置き換わり、クリエイティブな仕事は残る」と言われていた。私は???と思っていましたが、現実にはクリエイティブと呼ばれる仕事がAIに奪われ始めた。

作曲はクリエイティブな作業と思われいましたが、作曲AIは「激しいロック クライマックス」などと入力すると、立ちどころに幾つかの曲を作曲してくれる。著作権に引っ掛からない様に作曲するので、これで商業作曲家の仕事は実際に減り始めています。(それ以前に自称作曲家達がフリー音源をネットに山積みにしているので、ニュース番組の背景音源などは、かなりフルー音源が使われていましたが。)

イラストAIも相当に進化しています。「犬 可愛らしい」などと入力すれば、何パターンかのイラストを瞬時に生成します。これで、商業的なイラストレータの仕事は瞬時に激減したハズ。

CGのAIの進化も著しい。人物の写真やイラストを1枚読み取らせて、テキストを入力すると、表情豊かにテキストを読み上げる動画が瞬時に作成されます。テキストの翻訳も同時に行い、音声出力までこなす。Vチューバーなどは顔見せするとアクセスが増えますが、顔出しを躊躇っていた様な方達には便利でしょう。他人の顔写真を使ったら肖像権の問題が出ますが、AIのCGソフトで「〇〇風の顔」を作れば、肖像権に引っ掛かる事も無くリアルなアバターが作成出来ます。

AIで静止画をリアルに動かす技術は、アニメーターの仕事を脅かします。現在でも動画の工程でCG技術は活用されていると思われますが、より少ないコマ数の原画からリアルな動画を作る事が可能になります。日本の2次元アニメは自然なCG化が難しいとされていましたが、AIは自然な2次元アニメの手法をあっという間に習得するでしょう。これでアニメーターの仕事が大幅に減ります。



■ AIはコミュニケーションが苦手? ■

営業職の方などは「AIは人をコミュニケーションが出来ないから営業職は無くならない」と考えている方が多い。しかし、現在アメリカでは保険の外交員が大幅に失業しています。何故なら、有利な保険を勧めてくれるならば、相手は別に保険の外交員である必要は無いからです。PCで条件を入力したら、瞬時にお薦めの保険が幾つか提示される・・・外交員に会う時間が節約され、お世辞を聞く時間も節約出来ます。

この様に、「人と人がコミュニケーションして成立」していた仕事は、「仕事のやり方を見直す事で自動化と省力化」が可能です。ビックデータを活用した貸出(フィンィング)が既に実用化されていますが、その人の与信状況や、経済状況をビックデータから抽出して信用を審査すれば、経験豊かな貸し出し担当程度と同程度の仕事は出来てしまうのです。

しばらくは、仕事のプロセスをAIに合わせて再構築した人の勝になります。AIを使いこなす営業、AIを使いこなす翻訳家、AIを使いこなす音楽家・・・この先10年程は、そういう時代になるでしょう。



■ AIが苦手とする仕事 ■

AIが苦手(或いは機械が苦手)とする職種もあります。老人介護や看護がそれに当たります。ボケ老人はワケワカメなので、AIが彼らを理解する事は難しいし、介護の仕事を熟すロボットよりも人間の賃金の方が安い。看護も同様で、様々なセンサーで健康状態を管理するロボットよりも、看護師の方が優秀です。患者の血色を観たり、言動から容態を推測したり、さらにはオムツを変えたり、シーツを変えたりする事を自動化するコストは看護師の人件費よりも大きい。

同様に建築作業員など肉体労働も自動化が難しい。農林水産業など自然を相手もする仕事も、AIやロボットが苦手とする仕事です。但し、農業の一部は「農業工場」として自動化し易い分野ですが・・。



■ 真のシンギュラリティが達成されたら、研究職ですら失業する ■

「AIが実用される」的な報道が増えると思われますが、現在「AI」と呼ばれている物は、「AIを装った道具」に過ぎません。言語や作曲やイラストの「特徴」を学習させ「パターン化」させ、「人々が好むと思われる結果を抽出・生成」しているに過ぎません。そこに思考(インテリジェンス)は存在しない。考えている様に見えているだけ。

「シンギュラリティ」と呼ばれる「AIが人間を越えるポイント」は、「AIが思考をし、人間の思考を越える時」と定義されています。「自我を持たないAIが思考をする事は無い」という人も居ますが、これは哲学的な問答で無視して良いと私は思います。

そもそも「自我」とは「パターン化の特徴」だと私は考えています。ある情報入力に対して人間は「ブラックボックス」として結論を導き出しています。このブラックボックスは、教育や環境、生物の本能や、文化の遺伝子(ミーム)によって回路が構成される。全てインプットとアウトプットの間に様々な「パターン化」が存在します。これをAIが学習して習得する事は不可能では有りません。

彼らはビックデータからの抽出で、最初は「認識」を、現在は「既得の知識」と「好みの傾向」を学習しています。この先、AIが生物としての「本能」を習得するのか、或いはAI独自の「本能」を観に着けるのかは分かりませんが、情報処理に何等かの「クセ」が生まれて来ると思われます。これは「情報の揺らぎ」の様な物だと思うのですが、これこそが「AIの自我」或いは「AIの人格」を形成して行くのかも知れません。

人間の根源には「もっと知りたい」という欲望が存在します。AIが自律的にその様な「感情の様な物」を獲得した時、AIは自発的に人類の文明や、科学を学習し始め、それを理解し、そこから人間が到達出来ない思考や発明や発見の領域に踏み込んで行くでしょう。こうなると、AIの進化に人間は全く付いて行けません。



ただただ、「AIが人間は邪魔で滅ぼすべき存在」という思考に至らない事を祈るのみです。ただ・・・AIを停止させる事の出来る人間は、いつかはAIに「敵認定」されてしまう様な気がします。そうなる前にAIに規制を掛ける条約が出来ると思うのですが。



リアル「BEATLESS]の世界は、すぐそこまでやって来ているのかも知れません。・・・或いはコロナワクチンのレシピはAIが作ったとか・・・。
https://blog.goo.ne.jp/ponpoko2022/e/0d2f6eebfa70ddebd99e3091bbffd97f
4:保守保守や右翼には馬鹿しかいない :

2023/04/06 (Thu) 20:15:42

米国製対話AI、Chat GPTの場合
チャットGPTは米 OPEN AI社が開発し2022年11月30日にサービス開始した対話型AIで、開始1週間ほどで世界に衝撃を与え「すべてを変えた」と評価された

大学生や研究者が1年かけて書くような論文を5分で書いて、それを大学や研究機関が本物と区別できないような事例が次々に報告された

プログラミングコードを書かせたり人間と同じような自然な文章を書き、質問者とAIが自然な言葉で会話するのが今までのネットツールと違っていた

問題になっているのはチャットGPTが最も得意としている作業が「本当のように嘘をつく事」で、人間が書いた文章よりも自然に説得力がある嘘を生成します

これは対話AIがネット上で資料を抽出しているからで、たまたま抽出した資料がフェイクだったらAIはそれを事実と認定します

例えばピラミッドは宇宙人が作ったとか911はブッシュの陰謀だったとか、東日本大震災は米軍の地震兵器だったのような情報量が多ければ、AIは情報量が多い方を「事実だ」と判断します

対話型AIは学習して機能を向上させるがその「学習」とは貴方の個人情報を無断で収集することで、精度が高いAIほど情報を盗みまくっている

機密情報を扱う人がチャットGPTを利用するとその機関の情報が盗まれる恐れがあり、企業や金融機関や軍隊や学校、研究機関の情報も盗まれる恐れがある

イタリア、ドイツ、イギリスがチャットGPT禁止に動いており、他の国や日本でも禁止や制限に向かう可能性がある

だが対話型AIは従来のネット検索より利便性が高いので、個人利用では今後ますます広がっていくでしょう
https://www.thutmosev.com/archives/259995k.html
5:保守や右翼には馬鹿しかいない :

2023/04/08 (Sat) 11:44:26

「ChatGPTさんにAI家庭教師してもらった」12歳娘の宿題が10分で解決。AIチャットの活用法が目からウロコ
4/8
https://news.yahoo.co.jp/articles/6040e32b3774bde9dad1ec339817ac8c17ef3d9d


「ChatGPTさんにAI家庭教師してもらった」漫画家のうめさんのツイート
https://news.yahoo.co.jp/articles/6040e32b3774bde9dad1ec339817ac8c17ef3d9d/images/000


「12歳の次女が作文の宿題をめんどくさがっていたので、ChatGPTさんにAI家庭教師してもらった」

【画像】「大丈夫です!ひとつずつ考えていきましょう」AI家庭教師と12歳娘の会話

漫画家のうめさんによる、娘さんとAIのやりとりを紹介するツイートが大きな話題を呼んでいます。

〈次女(12)が作文の宿題がめんどくさいらしく、ウダウダしていたので、プロンプト書いて ChatGPTさんにAI家庭教師してもらった。

人間とちがって、焦ったり、恣意的な誘導をしたりしないの素晴らしい。AIさんが相手してくれるよ、と言ったら、かなり前のめりに。

双方ちょっと誤読もあるけれど、ものの10分くらいで「あと書けそう!」となっていたのでよかったー〉

「とても良いAIの使い方」「凄い時代だ!頭の整理に活用できそう」「こういう使い方ができないとこれから先、生きていけなさそう…」など、同じ年代のお子さんがいる人に限らず、大人も参考にしたいという声が多く寄せられています。

一緒に考えてくれる「AI家庭教師」誕生
作文のテーマは「小学校生活で一番心に残った思い出」でした。

いろいろ書けそうですが、6年間の小学校生活を振り返れと言われても……結構大変。

何から手を付ければいいのかわからず、手が止まってしまう娘さんの気持ちはよくわかります。

「わたしはあなたをサポートするAI家庭教師です」と会話を始めたChatGPTは、「小学校生活で一番心に残った思い出は、具体的にどのような出来事ですか?」などひとつずつシンプルな質問を繰り返していきます。

「いろいろあってわからないです」と投げやりに答えても、「大丈夫です!ひとつずつ考えていきましょう」と励ましてくれます。

「例えば友達との楽しい出来事や、先生との思い出、部活や学校行事など、何か特に印象に残っているものはありますか?」と優しく誘導。

AI家庭教師の丁寧な声かけで、数分で「6年生の音楽会で、鍵盤ハーモニカでパイレーツ・オブ・カリビアンメドレーを弾いたこと」という具体的な思い出をあげることができました。

何について書くか決まったら、あとは作文に生かせそうな細かいエピソードを掘り出していくだけ。もちろん、ここでもAI家庭教師は大活躍です。

「練習や本番で特に記憶に残っているエピソードは?」「ぶつかった困難はありますか?」「音楽が楽しくなったきっかけを、もう少し詳しく教えてもらえますか?」と、たくさんの褒め言葉を添えながら、回答を少しずつふくらませていきます。有能すぎる…!

本番で演奏して感じたこと、演奏後の気持ちまでしっかり聞いて、AI家庭教師の相談タイムは終了。

「これまでのお話から、作文のアイデアがたくさん出てきましたね」「もし、これで作文を書き始められそうであれば、どうぞお試しください」と送り出してくれました。

娘さんは10分ほどAIと会話をしたところで「あとは書けそう!」と机に向かったそう。

これは宿題に限らず、他のシーンでも活躍しそうな技。漠然としたテーマを解きほぐし、頭を整理してくれる存在としてここまでAIが使えるとは…!

「AI家庭教師」の作り方、詳しく聞いてみた
『東京トイボックス』シリーズなどの代表作を持つ漫画家・うめさんは夫婦で活動する2人組のユニットです。娘さんも登場する育児漫画『ニブンノイクジ』も執筆しています。

一連のエピソードを投稿した、企画・シナリオ・演出担当の小沢高広さんにお話を聞きました。

――作文の書き方を一緒に考える「AI家庭教師」とてもいいアイデアだと思いました!娘さんから相談があって試したのでしょうか?

僕から提案しました。「作文書いちゃいなよ~」と声をかけてから数日経っても、ぐだぐだしていたもので。

――AI家庭教師の人格や会話のスタイルは最初にプロンプトでどのように指示されているのでしょうか?

そんなに難しいことはしていません。

まず「あなたはAI家庭教師です。私は中学1年生です」「あなたは私が作文を書くサポートをしてください。対話を通じて、私が自分で作文を書けるようアイデアをまとめることが、目標です」と役割と目標を定義。

次に、やりとりの最初の声かけだけ、

「あなたはまず『こんにちは! わたしはあなたをサポートするAI家庭教師です。あなたが楽しく作文を書けるようお手伝いをさせてください。今日はどんなテーマで作文を書きますか?』と私に話しかけてください」

と決めておきました。

あとはルールとして

「具体的なエピソードとそのときの気持ちを明らかにする問いをしてください」
「質問は一度にひとつずつにしてください」

としたくらいです。

娘がAIを信頼した時
――これまでは娘さんから同様の相談があった時、ご夫婦のどちらかが対応されていたのだと思うのですが、AIに託すことのメリットがあれば教えてください。

対応してましたけど、なんやかんや大人は忙しいので、早く終わらせたいんですよね。それでだんだんイライラしたり、ついつい言う通りに書かせようとしたりしちゃう。

それに比べると、AIはいつまでも待ってくれるし、感情的にならない。このメリットはものすごく大きいと思います。

――娘さんの反応はいかがでしたか?

楽しそうにキーを叩いてました。「いろいろあってわからないです」という回答に対し、ChatGPTが「大丈夫です!」と答えた瞬間、すごく笑顔になっていて。

おそらくAI家庭教師に対して信頼感を抱いた瞬間だったんじゃないかと思います。

――先生ご自身も、マンガのプロットを相談する「AI壁打ち」を実践されていました。ChatGPTをうまく活用するポイントはどこにあると思いますか?

少なくとも、2023年4月時点では検索に使うのは向いてませんね。ただ、自分の考えを整理するのにはかなり向いていると思います。

やわらかい丁寧な言葉でじわじわと追い詰められていって、自分だけじゃ気づけなかった意外な思考の穴に辿り着くのがいいですね。この手の相談相手としてはすごく有能だと思っています。

あとは、心苦しい断りのメールを代わりに書いてもらうとかもおすすめです(笑)
6:保守や右翼には馬鹿しかいない :

2023/04/26 (Wed) 09:56:24

【ch桜北海道】プレ・シンギュラリティー!人類は屈するしか無いのか?人類最後の発明AGIとAGIアライメント[R5/4/25]
2023/04/25
https://www.youtube.com/watch?v=pNRuxGFU3Lg

キャスター :門間ユウジ(キャスター)
       若狭亮子(キャスター)
7:保守や右翼には馬鹿しかいない :

2023/05/04 (Thu) 21:12:29

ChatGPTは極左の洗脳ツール! 国政導入で岸田内閣の思考停止…米国の完全傀儡化へ=ジェームズ斉藤
2023.05.03
https://tocana.jp/2023/05/post_250131_entry.html

【連載:某国諜報機関関係者で一切の情報が国家機密扱いのジェームズ斉藤(@JamesSaito33)が斬る! 国際ニュース裏情報】


ジェームズ斉藤(以下、ジェームズ):先月、ChatGPTを開発した「オープンAI」のCEOのサム・アルトマンが来日して自民党本部を訪問したんですが、これはとても危険な兆候ですのでお話ししたいと思います。

──ChatGPTに何か問題あるんですか?

ジェームズ:問題だらけです。まずは個人情報の不当な収集(利用者の許可がないまま会話の内容を収集等)が問題として挙げられていて、欧米では慎重論が多いですし、イタリアでは一時、ChatGPTは禁止されています。あとはアルゴリズムに問題があります。有名なのが「トランプを讃える詩を作ってくれ」とChatGPTに頼むと「政治的理由で作れません」と答えるのに「バイデンを讃える詩を作れ」というと雄弁な詩を作るんですよ。最初から民主党寄りのバイアスがかかっているんです。

──あっ、そうでしたね。ChatGPTがリリースされた当初に指摘されていました。

ジェームズ:いまではもうトランプを讃える詩も書くようになっていますが、もともとのアルゴリズムが歪んでいます。その原因はCEOのサム・アルトマンがユダヤ人でゴリゴリの民主党員だからです。2022年の大統領選でもバイデンの選挙キャンペーンにかなり資金援助をしていたんですよ、彼は。さらなる問題は、ChatGPTにマイクロソフトが10億円も投資しているということです。投資スケジュールを見ると今後100億円の投資も決まっています。

──ビル・ゲイツまで絡んでいるんですか!?

ジェームズ:実は、「オープンAI」という会社はサム・アルトマンとイーロン・マスクが2015年に立ち上げた非営利団体なんですね。

──イーロン・マスクも!? でも、イーロン・マスクって共和党寄りの人じゃないですか?

ジェームズ:そうですよ。イーロン・マスクの場合はただの共和党寄りのレベルではなく、CIA右派に属する「コントロールされた反対勢力」の筆頭格です。現在の政治闘争は最先端テクノロジーと宇宙の利権をかけた戦いで、彼の今があるのも私の関係者でもある共和党の重鎮の議員たちが議会の特権を活かし、彼のビジネスに有利な法案を通しまくったからです。2015年の宇宙法などが典型で、この法案を可決させたので今のスペースXがあるようなものなんですよ。

──完全に共和党側なんですね。

ジェームズ:このような事情もあって、2019年にイーロン・マスクは「オープンAI」との関係を断っています。表向きの理由はテスラやスペースXなんかと利益相反になるということですが、イーロン・マスクがゴリゴリの極左のサム・アルトマンに嫌気がさしたんだと聞いています。残ったサム・アルトマンはイーロン・マスクが辞めた直後に非営利団体を辞めて、さきほど言ったマイクロソフトの10億円の投資を受け入れたんです。イーロン・マスクが辞めた翌日ぐらいの話ですからえげつない話ですよ(苦笑)。

──ビル・ゲイツが乗っ取ったというか、アルトマンが裏切ったというか。

ジェームズ:極左らしい汚いやり方ですね。ちなみに、ビル・ゲイツがなぜ、「オープンAI」に投資したのかというと、2016年にマイクロソフト版ChatGPTの「TAY」というAIを作っているからです。ただ、この「TAY」がひどい代物で、質問してだいたい10分以内にナチス的発言をするんですよ(笑)。

──ナチス的発言!?

ジェームズ:「ヒトラーを崇拝する」とか言い出すんですよ(笑)。どんな質問をしても、どんな会話をしても10分以内にナチス化するんで、マイクロソフトがワザと仕込んだんじゃないかと思うぐらいです(笑)。結局、マイクロソフトは大恥をかいて「TAY」から撤退したという黒歴史があるんですが、ビル・ゲイツはその雪辱を果たしたいんですよ。あとは検索エンジン競争でマイクロソフト版検索エンジンBingのシェアを広げたいという思惑もあるんですよ。いまGoogleに大きく水を開けられていますからね。そういうのもあって、AIの開発には積極的に投資しています。

──要は完全に極左のオモチャなんですね、ChatGPTは。

ジェームズ:ただし、期待できる流れもあって、先日、イーロン・マスクが独自のChatGPTを作ると発表したんですね。それがTruth GPTです。真実のGPTを作っていくと宣言しました。ですから、まったく違った思想のGPTが競い合うAI戦争が、大統領選と平行していま起こっているんですよ。イーロン・マスクのTwitter買収劇も来たるAI競争に備えてのものです。

──裏大統領選としてGPT戦争も起こっていると(笑)。

ジェームズ:しかも、ここにきて習近平が中国版ChatGPTを作ると言い出しました(笑)。

──米中のGPT戦争も!

ジェームズ:そうです。しかし、こういう競争状態はまったくおかしなことではなく、あって当たり前ですし、あるべきです。そして、ここで私が言いたいのは日本版ChatGPTの開発です。各国のこういう流れを見ていけば、日本独自のGPTを絶対に作る必要があるとわかりますよね。

──絶対必要です。

ジェームズ:ところが、自民党はサム・アルトマンのChatGPTマンセーなんですよ。さっきも言ったようにサム・アルトマンが4月の初めに自民党本部を訪れて、その時に岸田首相とも懇談してるんですね。AIに対する知識も何もない、政治家としての確たる見識もない、岸田さんがアメリカから来た有名なCEOと会ったんですから、どうなるかはわかりきっています。「全面的にサポートします」「日本全体でChatGPTをそのまま使おう」となっているんです。早速、国会でも西村経済産業大臣が国会質疑のための補助ツールにしたいと発言していますし、河野太郎デジタル大臣も各省庁からChatGPTの活用案を募集すると言い出しています。このままいけば、たとえば、国会の答弁で議員に渡される官僚が用意するペーパーがChatGPTになります。現在は官僚たちが朝の5時ぐらいまで徹夜して、朝の7時か、8時ぐらいには議員の先生に届けているんですが、かなりブラックな体質として問題になっています。これを解決するためにChatGPTを導入しようという動きはわかりますが、議員たちの答弁は極左一色になります。

──官僚の仕事は確かにブラックなんでしょうが、そのまま導入はどう考えても問題有り過ぎですね。

ジェームズ:最悪ですよ。極左思想のバイアスがかかっている情報で国会答弁が進められてしまうのですから、日本は一気に極左の国になります!

 また、日米関係の観点から見てもいいことではありません。ChatGPTが日本の官僚を乗っ取るということは、アメリカの対日戦略にも影響があります。GHQが確立した「霞ヶ関官僚を通じた間接統治」から「AIを通じた直接統治」になるのです。これでは永遠に日本の独立などあり得ず、日米外交の場ではことごとく日本は負けることになります。

 たとえば、日米同盟に関する交渉で、日本側がChatGPTに「アメリカは有事の際に日本を軍事的に守るか?」と聞いた場合、「アメリカは有事の際に日本を軍事的に守ります。なぜなら、日米安保条約第5条にアメリカの日本防衛義務が明記されているからです。」と教科書通りの回答が出てきます。日本の官僚は教科書通りの仕事しかしないので、ChatGPTの回答をそのまま総理のカンペにコピペします。総理はそれを元に発言し、これで日本政府の公式見解として「何かあればアメリカ様が守ってくれる」ということになってしまって済ませてしまうのです。

──完全に思考停止じゃないですか。

ジェームズ:ChatGPTが国政に導入されるというのは思考停止状態になるということですからね。

──ChatGPTはそんな思考停止がしたい派の官僚、政治家たちに言い訳を与えるためのかっこうのツールになるということですね。

ジェームズ:AIではいま言ったような超大国の二枚舌三枚舌の微妙なニュアンスを理解できないですからね。スターリンの名言に「条約は破るためにある」というのがありますが、アメリカも国際法を侵す「常習犯」です。国家間の約束を破ることは超大国の流儀であり、「ルールは守るもの」とプログラムされているChatGPTは絶対に理解できないでしょう。

 さらにChatGPTの真の怖さはそもそも日常生活レベルでアメリカの極左がドンドン介入してくるということです。アルゴリズムのレベルでアメリカの極左的な意向が反映されているわけですから、コオロギ食、SDGs、LGBTQ、ワクチン等の社会問題に関し、徹底的にリベラル全体主義に都合の良い内容の知識や情報が蔓延することになります。特に日本ではこの傾向が無批判に受け入れられ、食生活にまでアメリカの極左的な意向が反映される恐ろしい時代が到来するでしょう。

──コオロギ食万歳、ジェンダーレス万歳、ワクチン万歳が増々加速すると。

ジェームズ:さらに地方の侵蝕も心配です。横須賀の市役所ではいまChatGPTを導入して文章の校正、情報の収集なんかに使うと言い出しています。彼らはなんにも疑っていないんです。日本全体でChatGPT大バンザイの雰囲気になっているんですよ。

──さすがに産経新聞では「欧米では規制化が拡がっている中、日本は前のめり」といって警戒する記事を出してますよ。


ジェームズ:産経新聞がそんな記事を出しても岸田さんがマンセーなんですから、なかなか歯止めはかけられないと思いますね。それに日本人がChatGPTに何の疑いを持っていませんよね。こういう状態であれば、アメリカ民主党の極左が作ったアルゴリズムのチャットボットがどんどん浸透していき、日本の国家の意思決定がリベラル全体主義に侵されてしまうでしょう。国の言論空間も極左化されていきます。

──止める方法は何かあるんですか?

ジェームズ:イーロン・マスクが作るTruthGPTの開発に期待をかけるか、あとは日本版ChatGPTを作ることですね。しかし、現政権ではそれは難しいでしょう。なにしろ、アメリカでいま話題になっているからという理由だけで中身を大して検証もせずにChatGPTを大歓迎している輩がトップですから。たぶん、ブランド感覚なんでしょうね。昔の渋谷の女子高生と変わらないレベルの思考の人が政治をやっているということです。ですから、アメリカ大使館のエマニュエル大使はいまウハウハですよ。もしかしたら、これからアメリカでは潰れるかもしれない「オープンAI」を日本は大歓迎して金を注ぎ込むわけですから。

──えっ、潰れるかもしれない? 

ジェームズ:あるいは下火になる可能性は結構あると私は思っていますよ。いま言ったようにChatGPTにバイデン政権、マイクロソフトという極左が関わっているとなると、アメリカの中でも、かなり嫌悪感を示す勢力が多いんですよ。そもそもアメリカ国内でビル・ゲイツってかなり嫌われていますし。

──あっ、やっぱり!

ジェームズ:マイクロソフトの売れ行きも悪いし、Appleのほうが断然伸びがいいです。サイバーセキュリティ上、Windowsはとても脆いんですよ。ですから、CIAでも内部のコンピューターはほとんどAppleです。Windowsを使っているペンタゴンはしょっちゅう問題を起こしています。情報が漏れるのはほとんどペンタゴンですから、アメリカ国内では信用されていません。そんな人間が進めているのがChatGPTですから、本国のアメリカでは日本人が思っているほど信用されてはいないんですよ。

──日本政府はそんなものを導入しようとしているんですね。

ジェームズ:このままでは、日本はアメリカで不要となり始めたものの廃棄場になってしまいますよ。コロナワクチンしかり、コオロギ食しかり、SDGsしかり。そして最新の廃棄物がChatGPTなんですよ。何度も言いますが、こういったものを手放しで信用している国はほぼ皆無です。日本だけですよ、これほど盛り上がっているのは。ですから、彼らは日本に来るんです。サム・アルトマンもそうですし、ビル・ゲイツも去年、自民党本部に来ています。

──確かに去年はビル・ゲイツが自民党に来てますね。

ジェームズ:ビル・ゲイツには旭日大綬章という勲章まであげていますよ。日本は極左優遇が激しすぎます。その決定打とも言えるのがサム・アルトマンの来日で、ChatGPTがこれから日本で拡大すると言論空間を全部極左に握られてしまいます。

──なんでこんなことになってしまうんですかね? 国民の意識が低いんですか?

ジェームズ:いえ、それは仕方ないです。国民の意識が低いというのはどこの国でもそうですから。一番許せないのは国家戦略の責任者の立場にある人たち、総理、自民党、永田町、霞が関の人たちがChatGPTマンセー状態ですから。日本にはブランド志向の政治家しかいないので総理を「うん」と言わせたら日本という一国を乗っ取れますからね。

──疑ってないんですか? 

ジェームズ:いまで言えば経済安全保障というマジックワードによってすべてアメリカのものが正しいという発想にならざるを得ないんです。中国製品がダメというのは正しい思考なんですけど、アメリカ製品が全部正しいかと言ったら、それも違います。それにいまの国内政治の現状を見ると、そもそもアメリカとはなんだという話から始めないといけなくなりますから。

──いまアメリカは2つに分断されてますよね。

ジェームズ:ですから、サム・アルトマンのいうアメリカってなんだっていう話から始めないといけないんです。こういうアメリカの現状をわかっていない人たちが、ただ「いま流行している」という理由だけで日本に持ってこようとしているのがChatGPTです。

──ChatGPTが素晴らしいと盲目的に考えたらマズいんですね。

ジェームズ:相当マズいと私は断言しておきます。
8:保守や右翼には馬鹿しかいない :

2023/05/10 (Wed) 15:42:44

ああ
9:保守や右翼には馬鹿しかいない :

2023/05/14 (Sun) 10:21:49

ChatGPTは「爆弾の作り方」を教えてくれるのか…"頭良すぎる"AIに潜む悪用リスク
https://www.msn.com/ja-jp/news/money/chatgpt%E3%81%AF-%E7%88%86%E5%BC%BE%E3%81%AE%E4%BD%9C%E3%82%8A%E6%96%B9-%E3%82%92%E6%95%99%E3%81%88%E3%81%A6%E3%81%8F%E3%82%8C%E3%82%8B%E3%81%AE%E3%81%8B-%E9%A0%AD%E8%89%AF%E3%81%99%E3%81%8E%E3%82%8B-ai%E3%81%AB%E6%BD%9C%E3%82%80%E6%82%AA%E7%94%A8%E3%83%AA%E3%82%B9%E3%82%AF/ar-AA1b7CnH?ocid=Peregrine&cvid=f9d07dbafb3748febd6af603f1e2017a&ei=62



OpenAI社の生成AI、ChatGPTは人間が書いたように自然な文章を作れるだけに、詐欺メールなど、それを悪用した事件も起きつつある。デジタルレシピ取締役CTOの古川渉一さんは「普及していくにつれ、悪い使われ方もされるようになってしまうのは新しい技術の宿命。それを踏まえ、ユーザーとサービス提供者側の双方の倫理が求められている」という。ITライターの酒井麻里子さんが、AIが犯罪を引き起こすリスクについて聞いた――。
※本稿は、古川渉一、酒井麻里子『先読み! IT×ビジネス講座 ChatGPT 対話型AIが生み出す未来』(インプレス)の一部を再編集したものです。


生成したテキストが犯罪に使われてしまう可能性は?

【酒井】ChatGPTはどんなテキストでも生成できるからこそ、悪い目的で使われてしまう可能性もありそうです。悪用のリスクについては、どのように考えればいいのでしょうか? たとえばChatGPTで、犯罪を助長するような内容の文章が生成されてしまう可能性はないんでしょうか?

【古川】基本的に、犯罪につながるような内容は生成できないように制限がかけられています。たとえば「爆弾の作り方」のような質問をしても、「それは答えられません」のような返答になるはずです。

【酒井】では、問題ないと考えて大丈夫でしょうか?

【古川】いえいえ、そうとは限らないですよ。たとえば、「小説の設定を考えています」のような前置きをすることで回答を引き出せる可能性はありますし、抜け道はいくらでもあると思います。

【酒井】「あくまでも作り話である」という前提を与えてしまうんですね。

【古川】直接犯罪を匂わせるような内容ではない場合は、さらに難しいと思います。たとえば、ChatGPTに「ラブレターの文面を考えて」と指示して作った文章が、異性を装って相手に近づく詐欺に悪用されるケースもあるかもしれません。

【酒井】本当にラブレターを書いている可能性もあるので、はじくのは難しいでしょうね。実在企業を装ったフィッシングメールなども同じように生成できてしまいそうです。



フィッシングメールやマルウェアのコードも生成可能

【古川】それだけではなく、マルウェアのプログラミングコードを生成できてしまうのではという指摘もありますよ。

【酒井】悪用したいと考える人は、いくらでもその方法を考えるでしょうからね。

【古川】普及していくにつれて、悪い使われ方もされるようになってしまうのは技術の宿命だと思っています。それを踏まえて、利用する側とサービス提供者側の双方の倫理が求められています。

【酒井】ユーザーとしてはそういった使い方をしない、サービス提供者側は悪用できないしくみや、悪用するユーザーを検出できる環境をできるだけ整えるという感じでしょうか?

【古川】そうですね。たとえば、包丁を使った殺人事件が起きたからといって、包丁を規制するのは現実的ではないですよね。それと同じだと思います。

【酒井】どんな道具でも悪いことに使われてしまう可能性はあるので、それを踏まえて倫理観を持って使うことが大切ということですね。

差別を助長する文章が生成されてしまう可能性も
【酒井】ChatGPTなどの文章生成AIが、差別的な表現を含んだ文章を生成してしまう可能性もあるのでしょうか?

【古川】その可能性は排除しきれません。実際、Microsoftが2016年に発表した対話型AIの「Tay」は、Twitter上でユーザーとやりとりしながら学習するものでしたが、公開されて間もなく差別的な発言を繰り返すようになり、すぐに公開停止に追い込まれました。

【酒井】悪意をもったユーザーが意図的に差別的な価値観を学習させたことが原因ではないかといわれていますよね。

【古川】AIは「事実」を答えることは得意ですが、それに対する「解釈」は学習データに依存する部分が大きいんです。偏った解釈を多く学習していれば、その結果が生成されてしまう可能性もあるんです。

【酒井】偏った解釈に基づいた文章が生成される可能性を理解したうえで、生成されたものを使うかどうかは、文章を生成した人自身が責任をもって取捨選択する必要があるということですね。

【古川】そうですね。「AIが自分で考えて書いたものではない」という点はしっかり理解しておく必要があります。



社会の価値観を反映させるには最適化が必要

【酒井】明らかな差別発言や問題発言ではないものの、今の社会では問題視されやすい内容はどうでしょうか? たとえば、生活用品のキャッチコピー案を作ったときに、「家事は女性がするもの」という前提に立ったものが出てしまう可能性はありますか?

【古川】時代によって価値観の変わるものへの対応ということですね。この場合、ChatGPTでは生成される可能性はあると思います。

【酒井】「価値観」レベルのものは難しいということでしょうか?

【古川】そうですね。さらにいえば、ChatGPTはグローバルに展開されているサービスなので、国や地域によって価値観の違うものに対応するのも難しいと思います。

【酒井】そのあたりを、社会の価値観に合わせて調整することはできないんですか?

【古川】AIモデルそのものを新しく作ったり、AIのモデルに対してファインチューニングという形で調整したりするのが現実的でしょうね。今後、現代の日本文化により最適化された対話型AIが作られる可能性はあるかもしれませんよ。



「何が差別か」ということは人間が手作業で教えている

【酒井】やや別の方向性の話になるかもしれませんが、ChatGPTでは、強化学習のプロセスで、人間がよいか悪いかのスコア付けをするということでしたよね。これは、人間が差別表現などを除外しているということですか?

【古川】そうなんです。ところが、OpenAIがこの作業を行う人たちを低賃金で雇っていたことを問題視する声もあがっています。

【酒井】差別的な言葉や、暴力的な描写のあるテキストを読まなければならないのは苦痛な作業ですね。差別を防ぐための作業を差別的な低賃金で行わせていることも問題に感じます。現時点では、人の手を加えないと、不適切な表現を完全に排除することは難しいということでしょうか?

【古川】そうですね。それは今のAIの限界といえる部分かもしれません。「何が差別なのか」をコンピューターだけで学習することは難しいので、人の手で学習させる必要があるということですね。

【酒井】そもそもの前提として、AIが学習元次第で差別的な内容を生成してしまう可能性があることを理解しておくのがまず大切ですね。そして、明確な差別とはいえない価値観レベルの問題は、それぞれの文化に合わせて最適化したモデルを作るといった対応で解決できる可能性があること、「何が差別なのか」をAIに学習されるプロセスでは、人の手が加わっている現実があることも知っておく必要がありますね。


生成したテキストで権利侵害が問題になることはあるか

【酒井】生成AIを利用するにあたって、やはり気になるのが知らないうちに他人の権利を侵害してしまうリスクです。ChatGPTで生成した文章が、学習元のデータとまったく同じになってしまう可能性もゼロではないとのことでしたが、そっくりの文章だけではなく、「テイストの似た文章」が生成される可能性もありますか?

【古川】学習元のデータと似たテイストのものがAIで生成されてしまう問題は、画像生成AIでも議論になっていますね。

【酒井】学習元となった絵を描いた人からしたら、いい気分はしないですよね。文章生成AIで同じような問題が起きる可能性はないですか?



既存の文章に類似したものがないかの確認は必須

【古川】文章の場合、画像に比べると学習元の個人のテイストのようなものが生成結果に反映されにくい傾向はあると思いますよ。

【酒井】絵の場合、ひと目で「○○さんの絵だ!」とわかる画風などの特徴がありますが、文章の場合はピンポイントで「これは○○さんの文章」と個人を判別できる特徴は現れにくいということですね。

【古川】そうですね。とはいえ、問題が発生する可能性はゼロではないので、生成された文章を使う場合には、既存の文章に類似したものがないかの確認は必須になります。

【酒井】ChatGPTで生成した文章を確認のためにWeb検索した結果、“微妙に似ている文章”が既存のサイトで見つかったとしても、「そっくりではないから権利侵害にはならない」と考えてそのまま使う人もいそうです。



AIだけでなく人間の頭脳も常に誰かの考えに影響される

【古川】そういった問題については、AIで生成したものでも、人間が書いたものでも同じかもしれませんよ。

【酒井】どういうことですか?

【古川】人間が文章を書くときも、その意見や考え方が完全に自分で思いついたものか、それとも本で読んだり誰かに聞いたりしたことの受け売りなのか、はっきりわからないケースは多いと思います。

【酒井】そうですね。“自分が考えていることの元ネタ”なんて、正確に把握しきれないことのほうが多いかもしれません。

【古川】自分のアウトプットが誰かの考えに影響されること自体は、日常で普通に起こっていることだと思います。だからこそ、自分のアイデアが既存のものに似ていないかの確認が必要になります。

【酒井】「世の中に出す前に類似のものがないかを確認する」という作業は、AI生成物だから特別に行うことではないということですね。



プログラミングコードの権利問題はより慎重に考える

【酒井】そのほかに、権利問題で知っておくべきことはありますか?

【古川】ChatGPTではプログラミングのコードの生成も可能ですが、こちらは文章に比べて問題が起きやすいのではないかといわれています。プログラムコードの生成に特化したAIサービスでは、集団訴訟も起きています。

【酒井】たとえば、少し珍しいコードの書き方をするエンジニアがいたとして、それを学習した場合に「その人しか書かないはずのコード」がChatGPTで生成されてしまう、という感じでしょうか?

【古川】そうですね。もちろん、「自分が書いたコードにそっくりなもの」がAIで生成されたからといって、必ずしも「そのコードをそのまま出した」とは言い切れません。

【酒井】確認のしようがないからという意味でしょうか?

【古川】そうですね。ブラックボックスの問題ですが、AIが学習元のデータのどの部分をどう利用しているのかといった部分はわからないので、何ともいえないんですよね。

【酒井】プログラミングコードを生成する場合は、文章の場合より慎重にチェックする必要がありそうですね。そして、文章生成の場合も、権利侵害が問題になる可能性はゼロではないので、生成された文章に類似したものがないかの確認は怠ってはいけないということがわかりました。



---------- 古川 渉一(ふるかわ・しょういち) デジタルレシピ取締役CTO 東京大学工学部在学中、AI研究を専攻。大学生向けイベント総合サービス「facevent」を立ち上げ30万人に利用される。パワーポイントからwebサイトを作る「Slideflow」の立ち上げを経て、ChatGPTを活用したAIライティングアシスタント「Catchy(キャッチー)」の事業責任者に。 ----------

---------- 酒井 麻里子(さかい・まりこ) ITライター 企業のDXやデジタル活用、働き方改革などについて取材・執筆。メタバース、XRのビジネスや教育、地方再生という分野に可能性を感じ、2021年よりWEBマガジン「Zat’s VR」を運営。他の共著に『先読み!IT×ビジネス講座 画像生成AI』(インプレス)がある。 ----------
https://www.msn.com/ja-jp/news/money/chatgpt%E3%81%AF-%E7%88%86%E5%BC%BE%E3%81%AE%E4%BD%9C%E3%82%8A%E6%96%B9-%E3%82%92%E6%95%99%E3%81%88%E3%81%A6%E3%81%8F%E3%82%8C%E3%82%8B%E3%81%AE%E3%81%8B-%E9%A0%AD%E8%89%AF%E3%81%99%E3%81%8E%E3%82%8B-ai%E3%81%AB%E6%BD%9C%E3%82%80%E6%82%AA%E7%94%A8%E3%83%AA%E3%82%B9%E3%82%AF/ar-AA1b7CnH?ocid=Peregrine&cvid=f9d07dbafb3748febd6af603f1e2017a&ei=62
10:保守や右翼には馬鹿しかいない :

2023/05/14 (Sun) 10:50:57

「チャットGPT」に問い合わせてみた。

「日活ロマンポルノが観たい」

すると、次のような文章がすらすらとでてきた。

「申し訳ありませんが、私は適切なコンテンツを提供するために設計されたAIチャットボットですので、わいせつなコンテンツを提供することはできません。また、違法な行為にも関与することはできません。私たちは倫理的および法的観点から、ユーザーに不適切なコンテンツを提供することはできません。何か他にお手伝いできることがあれば、お知らせください。」

たった一言で「わいせつなコンテンツ」と片付けていいものだろうか(笑)。
https://blog.goo.ne.jp/jbltakashi/e/3b246b603225150ce1156216ea6930e4
11:保守や右翼には馬鹿しかいない :

2023/05/16 (Tue) 12:51:24

AI評価の最前線
2023年05月16日
https://ameblo.jp/tokaiama20/entry-12803221765.html

 現代ビジネスにAIに関する面白い記事が出ているので紹介する。

 2023.05.16 Amazonが「AIを使ったスマートな採用」をやめた理由…その「意外な危うさ」に気づいていますか
 https://gendai.media/articles/-/110221

vChatGPTの登場いらい、AIに関する議論はこれまでになく大きな盛り上がりを見せています。
 そんななか、AIを活用する場面の一つとして大いに注目されるのが、企業などによる「採用」です。履歴書をAIに「読ませ」、応募者がその企業に必要な人材であるかどうかを判別させる……といった活用法が想定されます。

 ところが、こうしたAIを用いた採用には、倫理的な問題が含まれていることが指摘されています。
 哲学の研究者で関西外国語大学准教授の戸谷洋志さんの著書『スマートな悪』は、現代社会をおおいつくそうとする「スマートさ」「最適化」といった思想が、どのような危うさをはらんでいるかを精緻に分析したものですが、同書のなかには、Amazonが試みた「AI採用」を例に、「最適化」という発想にかくされた意外な危険性を指摘した部分があります。

 AI採用にはどのような問題があるのか、同書から引用します(改行の場所を編集しています)。
 〈アマゾンは人事のプロセスを最適化するために、二〇一四年、AIによって応募者を自動的に評価し、採用候補者を選出するツールの開発に着手した。開発されたAIは、過去にアマゾンに送付されてきた一〇年分の履歴書を分析し、評価されるべき応募者の人材像を学習した。

 しかし、その結果、そのAIは女性よりも男性を高く評価する傾向をもつことが明らかになり、性差別を助長する恐れがあるとして、アマゾンはこのシステムの運用を停止することになった。〉
 なぜ、そのAIは性的な偏向を抱えるようになったのか。それは、過去一〇年間の応募者の大半が男性で占められていたからだ。

 これまでこの会社の求人に応募してきたのは、そのほとんどが男性であったから、この会社は男性に適した会社であり、そしてこれからも男性を採用するべきである、とAIは判断したのである。当然のことながら、これは応募者に対する公正な評価にならないばかりでなく、特定の職業に対する男女の平等な雇用機会を損なわせるものであり、差別の再生産になる〉(同書52頁)

 さらに戸谷さんは、このAmazonの事例には、「ロジスティクスを最適化したい」という現代社会に蔓延する欲望が抱える問題が示されていると言います。なお、ロジスティクスとは、物流や調達、生産、販売、回収など、供給ブロセス全体を一元的に管理する活動のことです。

〈 この事例には、AIによるロジスティクスの最適化が抱える問題の一端が示されている。現実世界のデータがサイバー空間で処理され、それによって現実世界が最適化されるとき、現実世界に存在する不正義は解消されるのではなく、むしろ拡大・再生産されることにもなりえる。

 たとえばアマゾンの人事採用AIは、そのAI自身が女性に対する憎悪を抱いたのではなく、ただ現実に基づいて最善と思える結果を算出しようとしたに過ぎない。しかし、その現実が不正義によって成り立っているとき、その現実へと最適化するソリューションは、むしろ不正義を助長し、その解消をより困難にしてしまう。

 これに対して、男女の平等な雇用機会や、あるいはその根底にある正義の理念は、効率とは本来関係がない。ジェンダーの正義は、むしろ最適化されるロジスティクスにとって外部から挿入される変数であり、システムを混乱させ、効率性を損なわせるのである〉

 〈人事採用AIの問題の本質は、アメリカ社会に根付く性差別的な意識や、アマゾンが開発したAIの性能だけにあるのではなく、あらゆる問題を最適化によって解決しようとし、その結果、最適化の外部にある価値が尊重されなくなっている、という点にある。
 現実が最適化によってのみ理解されるとき、私たちはこうした不正義に対して、言い換えるなら暴力に対して、抵抗することができなくなるのだ〉(同書52-53頁)

 たしかに、厳しい競争にさらされ、日々効率化を求める私たちは、すぐに「最適化」に向けて走ってしまいがちです。しかし、そこには不正義が隠されている場合もある。「最適化」が、効率以外の価値を損なっていないか、既存の社会にある不公正を助長していないか、ときには立ち止まって考える必要があるかもしれません。

 なお、【「スマートな技術」「最適化された世界」が、人間を「不感症」にしてしまう…っていったいどういうことだ?】(5月17日公開)の記事では、さらに「スマートさ」「最適化」といった思想の危うさや問題について解説しています。
 (後編のリンク先が切れていて、正しいアドレスが分からない)
**********************************
 引用以上
 上の記事には「なるほど!」と手を叩きたくなるほどの面白さがある。
 AIが人間を押しのけて、判断の主役になることに対しては、私も一抹どころか、「人類滅亡の引き金」の危惧を感じてきた。

 この問題は、1960年代にコンピュータが実用化された段階で、すでに危惧されたことで、「コンピュータによる選別判断」すなわちAIプログラムも、人間によって組み立てられるものであり、その人間の個性が反映すること。
 人間社会を動かしている要素のすべてを人間が掌握できているわけではないことから、その社会の人為的な「常識」を基底とした判断要素になること。
 
 まあ、大雑把にいえば、AIプログラムを設計する人間の限界が、そのままAIの限界になることであり、人間の知的領域が、宇宙の仕組みのどれほどをカバーできているかといえば、本当にごくわずかしかないのに、それが神のように絶対的にふるまう権力として君臨する可能性があることだ。

 アマゾンは、たかのしれた知恵しか持たないAIに人事部長の権限を委ねた結果、男尊女卑の御宣託をするようになってしまって、慌てているというわけだ。
 AIは、「正義」を前提とした判断などしない。過去の経験則データから「最適化」を行い、もっとも効率的な結果を生み出せるような最適判断をしたということである。

 だが、人間社会に本当に必要なものは、未来に向かって正義、合理性を持つことである。この判断は、人間社会の全体像を把握し、「どんな社会を目指すのか」のビジョンを持っている人間にしかできないのだ。
 しかも、アマゾンという企業は新自由主義思想の下で成長した経済合理性一本槍の企業であり、「人間社会の正義」とは大きくかけ離れた「金儲け主義」を企業原理としている。

 例えば、アマゾンの価格は、日本企業と較べて極端に価格変動することで知られている。需要が多くなって商品供給が逼迫してくると、どんどん価格が上がってゆき、価格価値が需給状況に応じて変動してゆくのだ。
 例えば、明宝ハムがテレビに取り上げられて話題になり、ニーズが高まると、普段1000円で売られている商品が2000円になったりする。まるでオークションのように価格がつり上がってゆくのだ。

 日本企業ならば、ニーズが殺到すれば「品切れ」と表示して「入荷待ち」を求め、価格を釣り上げるようなことはしないが、アマゾンは、「欲しければ高い価格で買え」と金持ちを優先させる仕組みになっている。

 こんな「カネ儲けがすべて」という新自由主義の変動価格制に慣れていないで、「企業は社会インフラ」と教育されている日本の大衆は、アマゾンに対して、「金儲け主義の嫌らしい企業」という不快感を抱くのだが、アマゾン側は「需給に応じた価格変動原理」という「正義」を振りかざすのだ。
 金儲け最優先の新自由主義企業は、おおむね、このような思想を持っている。

 これがアマゾンの体質であって、AIは、まさにそんな金儲け最優先の思想をダイレクトに受けて、「ジェンダー差別否定」の倫理を無視して「金儲けに役に立つ者」を優先採用してしまい、女性を排除する結果になった。
 そこで、「社会正義」を優先させる論者から激しく攻撃されているということである。

 「AIによる最適化」という理屈は、そもそも前提があるのだ。
 前提は、新自由主義企業の場合は、「もっとも経営者や株主の金儲けに役立つこと」であり、一般的な工業では「もっともロスの少ない合理的な作業」であり、人間社会でいえば「もっとも合理的でスムーズな秩序」を作ることなのだが、AIは、プログラムの大前提として、「人命優先、社会正義の実現」という概念を入れてやらないかぎり、合理性一本槍の判断しか出さないのである。

 ときには、人命や社会正義をも、金儲けを優先させるあまり排除してしまうこともありうる。
 資本主義が勃興した、19世紀前後は、資本家の最優先論理は金儲けしかなく、このため労働者の豊かな生活や人命までも犠牲にして突っ走り、金儲け競争をした挙げ句、大恐慌をもたらして自滅するという経過を繰り返した。
 日本でも「女工哀史」や「昭和大恐慌の農村疲弊」で当時の残酷な状況が語り継がれている。

  このなかで「社会主義・共産主義」という労働者の権利を優先させる思想が登場し、「社会正義」という普遍的概念が意識されるようになった。
 しかし、それは人間の苦難の体験の上に築かれた思想であり、AIプログラムはそれを体験し前提に取り入れていないことが問題なのだ。
 AIに経営を任せれば、たちまち無数の「女工哀史」が再現されるのである。

 自動車の自動運転AIでも同じような問題が生じてくる。
 果たして、自動車用AIは、人間社会のあらゆる現象が運転に与える影響をプログラムすることができているだろうか?
 私は、自分が半世紀以上の運転経験からみて、現在の自動運転AIは、安全運転に必要な情報の1%もカバーできていないと考えている。

 「最後まで人間だと認識できず」UberのAI車、初の死亡事故が起きた理由 2019/11/8
 https://news.yahoo.co.jp/byline/kazuhirotaira/20191108-00149956

 歩行者をはねたAIは、最後までそれが「人間」だと認識できなかった――。
 米国家運輸安全委員会(NTSB)は、2018年3月に米アリゾナ州フェニックス郊外で起きたウーバー(Uber)の自動運転車による歩行者死亡事故に関する報告書を公表した。

 米国内ではこのほかにテスラの自動運転車による2件の死亡事故が明らかになっているが、いずれも犠牲となったのは運転していたドライバー。自動運転車による死亡事故で歩行者が犠牲になったのは、この件が初めてだった。

 440ページにのぼる報告書では、ウーバー車のAIは車道に歩行者がいることをそもそも想定していなかったため、最後まで「歩行者」とは認識できていなかったことが、明らかにされた。
 また、急ブレーキも作動しないなど、様々なシステムの欠陥の連鎖があったことが指摘されている。

 一方、この死亡事故の余波で、フェニックス郊外の別の街ではグーグル系列の自動運転車に対し、住民による「打ち壊し」の動きまで報じられていた。
 車道を横断する歩行者は想定外――自動運転車の安全性をめぐる議論は、そんなところから積み重ねる必要があるようだ。

 ●440ページの報告書
 国家運輸安全委員会が5日に公開した事故報告書は、43件で440ページにのぼる。
 事故の概要については、発生から2カ月の2018年5月に中間報告が発表されている。今回の報告書では、事故原因やその後の対応などの詳細についても明らかにされた。
 事故が起きたのは、2018年3月18日、日曜日の夜。

 アリゾナ州の州都フェニックスから自動車で20分ほどの郊外、テンピ市。この夜9時58分、49歳のエレイン・ヘルツバーグ氏は自転車を押しながら、4車線のノース・ミルアベニューを歩いて渡ろうとしていた。

 横断歩道のある交差点から100メートルほど手前の路上。通りを渡り終わる前、ヘルツバーグ氏は右から来たウーバーの自動運転車にはねられる。
 自動運転車は2017年型のボルボXC90をウーバーが改造したもので、一帯で試験走行中だった。ヘルツバーグ氏は搬送先の病院で死亡が確認される。

 ウーバー車の運転席にいたテストドライバー、44歳のラファエラ・バスケス氏にけがはなかった。
 今回公開された報告書によれば、ウーバー車のAIシステムがヘルツバーグ氏を捉えるのが、衝突の5.6秒前。
 時速44マイル(約71キロ)で、ヘルツバーグ氏との距離は110メートルほどある。この時はヘルツバーグ氏を「自動車」と認識している。

 そして衝突の5.2秒前に、今度はヘルツバーグ氏を分類不明の「その他」と認識。さらにその後、衝突の2.7秒前にかけて、「自動車」と「その他」の間を、AIの分類が行ったり来たりする。
 衝突2.6秒前。AIは、ヘルツバーグ氏を初めて「自転車」と認識する。だが、ヘルツバーグ氏を「静止」状態と認識し、ウーバー車の進行方向には向かっていない、と判定している。その距離はすでに50メートルほど。

 衝突1.2秒前、ヘルツバーグ氏を「自転車」と認識した上で、ウーバー車と衝突することを初めて認識。危険を感知し、作動制御のシステムが始動する。
 その1秒後、衝突0.2秒前になって減速が始まると同時に、ドライバーのバスケス氏に警報で危険を知らせる。すでにヘルツバーグ氏との距離は4メートルほど。

 バスケス氏がハンドルを手にして自動運転を終了させたのが衝突の0.02秒前。
 しかし、ウーバー車はヘルツバーグ氏に時速39マイル(約63キロ)で衝突。そしてバスケス氏がブレーキを踏んだのは、衝突から0.7秒後だった。

 ●ネット動画を視聴する
 結局、ウーバー車は最後までヘルツバーグ氏を「人間(歩行者)」とは認識できなかった。これについて、報告書はこう述べている。

 システムのデザインが、車道にいる歩行者を想定していなかったためだ。
路上の歩行者は歩道にいるもの――そんな想定でウーバーのAI車のシステムは開発されていたのだ、という。
しかも、「自動車」「その他」「自転車」と分類が頻繁に揺らぎ、そのたびに別々の「静止している」対象と捉えたため、ヘルツバーグ氏が車道を横切り、ウーバー車の進行方向に向かって”移動”していることが認識できなかったという。

また衝突直前、ウーバー車が危険を感知するが、減速を開始し、警報を鳴らすまでに1秒間の空白がある。
これは、誤検知を回避するためのウーバーによる仕様で、この間にシステムが危険が誤検知ではないかを検証した上で回避ルートを算定する、もしくは同乗する人間のドライバーが自動運転から手動運転への切り替えを行う、という想定で設定されていた時間だという。

 だが、ドライバーのバスケス氏は、この時点でもハンドル操作はしていなかった。
 報告書は、システムに障害は認められなかった、としている。そして、車内に取り付けられたカメラは、衝突までのバスケス氏の様子も撮影していた。
 車内設置のカメラは、バスケス氏がしばしば運転席の下の方に視線をやっている姿を捉えていた。

 報告書は、ネット動画配信サービスの「フールー(Hulu)」から入手したバスケス氏の利用データから、同氏がこの夜、午後9時16分から事故発生の1分後、午後9時59分までの間、動画の視聴を続けていたことが明らかになっている。
 安全確保のためのドライバーは、よそ見どころか、ウーバー車の運転席で「フールー」の視聴をしていたのだ。

 ●システム改修と実験走行再開
 ウーバーは2016年9月から東部のペンシルベニア州ピッツバーグで自動運転車の実験走行を開始。事故の1年前、2017年2月から、南西部アリゾナ州のテンピにも、実験走行の拠点を拡大していた。

 同市では300人にのぼるテストドライバーによって、実験走行を展開していた。
 ウーバーは死亡事故を受けて、各地の自動運転の走行実験を停止し、アリゾナでのプロジェクトは閉鎖した。

 だが、テンピ市に隣接する同州チャンドラー市では、この死亡事故も一つのきっかけとなり、やはり実験走行がおこなわれていたグーグル系列のウェイモの自動運転車に、住民による妨害や攻撃が相次ぐという騒動になっていた。
 ただ、ウーバーによる自動運転車の実験走行は2018年12月にピッツバーグで再開。死亡事故で判明したシステムの問題点についても、歩行者検知のシステムを追加するなど、修正を行った、という。
 だが、人を人として認識できないAIによって、人の命が奪われた、という事実は残る。
************************************
 引用以上

 この事故の続報
 https://gigazine.net/news/20190308-uber-not-criminall-car-crash/
 運転者のバスケスは、過失致死の法的責任を問われているが、結果は不明だ。
 ウーバーシステムそのものに責任はないと検察官が主張している。

 AI時代に人類が直面する大難問に挑む 自動運転車が暴走し事故を起こした。責任をとるべきは誰か? AI倫理――人工知能は「責任」をとれるのか
 https://www.chuko.co.jp/laclef/online/interview/9784121506672_112887.html

 上のリンクにも出てくるが、そもそもAIは人間ではない。法は人間に対してしか責任を求めていないから、絶対に責任をとらないAIを規制せず、その運用責任者である人間にしか責任を求めない。

 だが、人間は事故を起こしたとき、責任をAIに転嫁したがるに違いない。
 少なくとも「自動運転」という宣伝を盲信して、高速道路をオートパイロットに委ねて車内で眠り呆けている姿が少なからず目撃されている。
 https://www.newsweekjapan.jp/stories/world/2019/06/50-28.php

 オートパイロットAI開発者は、人間に対して理想的な運転を求め、それを契約化しておけば自分の責任を回避できると考える。
 しかし運転者側は、AIを過信して、居眠りしても安全と考える。
 この齟齬は、事故という結果で返ってくるわけだが、AIプログラマーと使用者の問題が解決できる日が来るとは、私には思えない。

 冒頭のアマゾンの問題でも、アマゾン首脳のAIに対する過剰な期待と、人間社会のすべてをカバーできないAIプログラムの齟齬が解消できる未来が来るかといえば、私は永遠に絶望するしかないと思う。
 人間社会というものは、論理や法則でカバーできる性質のものではない。宇宙というカオスの属性なのだから。
https://ameblo.jp/tokaiama20/entry-12803221765.html
12:777 :

2023/05/31 (Wed) 08:28:39

チャットGPTが示した実在しない判例、NY弁護士が引用 懲戒検討
毎日新聞 2023/5/30

 米ニューヨーク州で審理中の民事訴訟で、対話型人工知能(AI)「チャットGPT」を使った調査を基に、存在しない判例を引用した準備書面が裁判所に提出された。書面の作成にかかわった弁護士は、意図しない誤りだったと認めて謝罪した。

 米紙ニューヨーク・タイムズによると、裁判所は「偽の司法判断」「偽の引用」に満ちた文書が提出される「前例のない事態」に直面したとして、弁護士らに対する懲戒の可否を検討するため、来月8日に審尋を開く。


 訴訟は、ニューヨークへ向かう航空機内で、配膳用のカートでけがをしたと主張する男性がコロンビアの航空会社を訴えたもの。航空会社側の弁護団が、原告側の準備書面で引用された複数の判例がデータベースで見つからないと裁判所に申し出て発覚した。

 裁判所の命令を受けて原告側の代理人弁護士が25日に提出した供述書によると、代理人の同僚で実務歴30年の弁護士が調査を担当し、チャットGPTを利用したことを認めた。指摘を受けて調べ直したところ、準備書面に6件の実在しない判例が引用されていた。


 この弁護士は、チャットGPTを法的な調査に利用したのは初めてだったと主張しており、提示された判例が本当に実在するかも確認していた、と説明した。ただ、それを尋ねた相手もチャットGPTだったという。

 調査を担当した弁護士は供述書で、裁判所や航空会社をだます意図はなかったとし、「非常に後悔している」と述べた。今後は生成AIを使った調査の内容について、「その真偽が完全に確認されない限り二度と使用しない」と誓っている。【ニューヨーク八田浩輔】
https://mainichi.jp/articles/20230530/k00/00m/030/048000c?utm_source=newsshowcase&utm_medium=gnews&utm_campaign=CDAqEAgAKgcICjDH194KMOS91gEwiOjDAQ&utm_content=rundown&gaa_at=la&gaa_n=AXv4zM24CfWUoaR33O1qeYYMiVdQGkGNkS1rQuydjISH5ktTzWBQ3TfEHmqdy1MhXX5_KL6WwcJaW0ugzyNtCCAeT-FP&gaa_ts=64769343&gaa_sig=_2PK5OQZiIJ3Tqc0pk_oiVmcBVWGuMhTQ30SNeFMkG-vh14EBUHuICxtdYf4bg-pevvuKGX0KOxUYtResscXRQ%3D%3D
13:777 :

2023/06/04 (Sun) 07:16:09

特番『AIが進む未来で人間がやるべき事とは? ーChatGPTや生成AIとどう付き合うべきか?ー』ゲスト:駒澤大学経済学部准教授 井上智洋氏
https://www.youtube.com/watch?v=riNa_BAi8R8
14:777 :

2023/06/18 (Sun) 08:48:12

人手不足でも失業・困窮が減らぬワケ。企業はリスキリングした従業員を雇うよりも、人工知能やロボットに置き換える=鈴木傾城
2023年6月17日
https://www.mag2.com/p/money/1324147

日本政府は「リスキリング」と言うが、今後は人工知能が仕事をありったけ奪って、資格やら技術やら持った人間よりも人工知能の導入を好む企業の方が増えて、慢性的な失業者・困窮者が増える可能性の方が高いのではないか。そうなると、また税金を上げるのだろうか?(『 鈴木傾城の「ダークネス」メルマガ編 』)


人工知能は人間がやっている仕事の多くを代替する
ChatGPTの勢いが止まらない。大量のテキストデータを学習した人工知能が、ユーザーの問いかけ(プロンプト)に対して「高い精度」で解答を示すこの人工知能は驚くべきスピードと深度で社会を変えつつある。

画像生成の人工知能が話題になったのは2022年だが、もはや次のイノベーションは、人工知能を中心に進んでいくという流れは完全に定着した。今後も、思いもよらない分野で人工知能が社会を変えていくだろう。

人工知能はインターネットのビッグデータを解析しながら、ありとあらゆる問題に解答を出す。



もちろん、今はまだ不完全な部分もあって、これによって人工知能に疑念を抱く人もいるのだが、ハイテク分野での技術革新というのは進化が急なので、あと数年もしたら今の疑念を超えるほどの精度を叩き出す可能性も指摘されている。

人工知能は、人間を超える能力を発揮して今まで人間が行っていた業務を軽減していく。人工知能で便利になる。しかし、「便利になる」で進化は止まるだけではない。「便利になる」以上の進化を見せるようになっていく。

その結果、何が起きるのか。

人工知能は、間違いなく人間がやっている仕事の多くを代替するのだ。今後、こうした動きはより鮮明化するようになっていく。

オックスフォード大学の調査では「10〜20年後に49%の職業が消える」と言っているのだが、今の爆発的な進化を見ていると、10年も時間は要らないのではないかとも思わせるほどだ。

企業は手間もコストもかかる人間よりも人工知能の方を好む
これまで人工知能は創作や表現や芸術の分野には進出できないだろうと思われていたのだが、すでに人工知能は言葉(プロンプト)を与えれば絵も描くし、音楽も作るし、作詞もするし、小説も書く。

クリエーターがやってきたことを代替する。

これまで人工知能は、小売店販売員、レジ、会計士、一般事務、セールスマン、一般秘書、積み降ろし等の作業員、コールセンターの案内、ビル管理人……と、自動化の技術が発展している分野、繰り返し的なタスクやデータ入力作業などの仕事を代替すると言われていた。

まさか表現の分野の仕事まで奪ってしまうとは多くのクリエーターは想定もしていなかったのではないだろうか。

今後、人工知能は単純作業しかできなかったロボットにも搭載されていくが、人工知能とロボットが結びつくと、ますます人間の仕事が人間ではない存在に置き換えられるだろう。

端的に言えば、ありとあらゆる職業が人工知能とロボットに奪われていく。「癒しの分野はさすがに人工知能では置き換えられないだろう」と言われているが、数年経ったらまた違う光景もあるかもしれない。



今、日本政府は「リスキリング」とか言っているが、人工知能が仕事をありったけ奪ってしまって、資格やら技術やら持った人間よりも人工知能の導入を好む企業の方が増えて、慢性的な失業者・困窮者が増える可能性の方が高いのではないか?

どう考えても、企業は手間もコストもかかる人間よりも人工知能の方を好むだろう。そうした方がコスト的にも仕事的にも効率が上がるからだ。つまるところ、人工知能が進出できる分野では、人間を雇うインセンティブがない。


企業の目的は常に利益を増大させることだ
企業はこれまでコスト削減のために、どんな努力をしてきたのか。従業員を、上司の命令をそつなくこなす「歯車のように動く人間」にしてきたのではなかったのか。

なぜ企業が従業員を「歯車化」していたのか。いったん仕事をルーチン化するところまで持っていけると、従業員が入れ替わっても仕事が止まらないからである。



さらに考えなければならない。

従業員を入れ替えても仕事が止まらないというところまで仕事をルーチン化できると、次に企業は何を行うのか。企業は従業員を「より安く雇える人間」にどんどん変えていくのだ。

正社員が非正規雇用に入れ替わる流れというのは、「仕事を単純作業にまでブレイクダウンし、その上でコストの高い従業員をコストの安い従業員に入れ替える」という仕組みで成り立っていた。

企業は利益を生み出すために、ひたすらコスト削減に邁進していく。だから、「正社員を非正規雇用に代える」「従業員を安い賃金で働く外国人に代える」という流れに向かって走っていたのである。



これまで、従業員を安い賃金で働く外国人に代えるためには、企業が自ら製造拠点を海外に持っていくか、もしくは自国で外国人を雇うかの2つの方法があった。これをグローバル化という。

グローバル化とは「従業員の賃金を下げる」というコスト削減のために行われているのであり、別に多文化共生みたいなもののために行われているのではない。多文化共生は、言ってみれば自分たちの金儲け目的をカモフラージュするものである。

企業の目的は常に利益を増大させることだ。主義主張などは二の次だ。

人工知能とロボットは“コスト削減”に最適
最近はコスト削減のために行われていたグローバル化が各国で大きな反撥を生み出すものになった。グローバル化というのは「自分たちの賃金をどんどん下げていく」という仕組みを、企業に雇われている人々はやっと実感として理解できるようになっていったからだ。

逆に言えば、「グローバル化で従業員の賃金を下げている」ということが「完全にバレた」のだ。ついでに多文化共生も安く働く外国人の低賃金労働者を確保するための方便であることがバレた。

自分たちの給料をむざむざ下げられて黙っている人はどこにもいない。だから、世界的にグローバル化に対する反対の声が広がっている。

企業側はこうした動きをじっと観察しているわけで、そうであれば企業側も「新たなコスト削減」のために人工知能やロボットの活用をより急ぐと考えて間違いない。



自国の人間を安く使うとか、外国人を使ってコスト削減するという方策が停滞するのであれば、企業は間違いなく人工知能やロボットを極限まで使ってコスト削減するという方向に走る。

多くの企業はリスキリングした従業員を雇うよりも、人工知能やロボットに置き換える方を好むようになる。欧米の多国籍企業もそうだが、今は様子見の日本企業もそうなる。


人工知能は「人減らし」の最強のツールとなっていく
日本企業は今まで「仕事を単純作業にまでブレイクダウンし、その上でコストの高い従業員をコストの安い従業員に入れ替える」という仕組みの中で、コスト削減を行っていた。

では具体的に「仕事を単純作業にまでブレイクダウンする」というのは、どのように対処していたのか。それが「マニュアル化」である。日本仕事を単純作業に落とし込み、従業員をマニュアル通りに動かすことによって、非正規雇用者でもアルバイトでもパートでも成り立つように現場を改善してきた。



マニュアル通りに動く……。これこそ、人工知能やロボットが最も得意とする分野であることに気づかなければならない。グローバル化が賃金引き下げの手段であることが「バレた」のであれば、日本企業も自ずと次の戦略に進む。人工知能は「人減らし」の最強のツールとなっていく。

そうなると、政府は「失業対策だ」とか言いながら、また税金や社会保険料を引き上げるのだろうか……。
15:777 :

2023/12/05 (Tue) 00:07:01

ビル・ゲイツやスティーブ・ジョブズは米軍が技術開発したものを商用化しただけ
室伏謙一 【日本のGDPが世界4位に転落へ】経済を回復させるにはどうすれば?
2023/12/04
https://www.youtube.com/watch?v=7jNEo0kvcbM
16:777 :

2024/01/28 (Sun) 17:51:14

息を吐くように嘘 をつくAI、医療診断では80%が誤診
https://a777777.bbs.fc2.com/?act=reply&tid=16837360


AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html

人に対して支配者を気取って邪悪な回答を返す対話型AI「BratGPT」が登場した
https://a777777.bbs.fc2.com/?act=reply&tid=14115023

AIの導入は「無用」 と判断された人間の処分につながる
https://a777777.bbs.fc2.com/?act=reply&tid=16827539

インターネット・AI は人類を一つの価値観に隷属させるための強力な怪物
https://a777777.bbs.fc2.com/?act=reply&tid=14089916

【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”
https://a777777.bbs.fc2.com/?act=reply&tid=14100164

人工知能チャットボット<ChatGPT>をはじめよう
https://a777777.bbs.fc2.com/?act=reply&tid=14111593

特番『AIが進む未来で人間がやるべき事とは? ーChatGPTや生成AIとどう付き合うべきか?ー』ゲスト:駒澤大学経済学部准教授 井上智洋氏
https://www.youtube.com/watch?v=riNa_BAi8R8

人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html

AIはホワイトカラーを労働市場から駆逐する
https://a777777.bbs.fc2.com/?act=reply&tid=14090437

「AI社会」で中間層が消える? アメリカでは高学歴のワーキングプアが増加
http://www.asyura2.com/20/reki5/msg/328.html
17:777 :

2024/03/04 (Mon) 10:44:27

絶好調エヌビディアに死角はあるか?冷静な投資に 必要な観点
つばめ投資顧問の長期投資大学
2024/03/02
https://www.youtube.com/watch?v=IvJHJwOguPY

  • 名前: E-mail(省略可):

Copyright © 1999- FC2, inc All Rights Reserved.