AIが今後、僕たちの生活にどのように影響を与えるのか。僕は非常に強い興味を持って、このテーマを追い続けてきた。
いまや、AIが僕たちの生活に与えている影響は、実に広い範囲にわたっている。当初、僕が想像していた範囲を大きく超えていた。自動車の自動運転はもちろん、流通、医療、介護、そして農業など、現在、あらゆる分野にAIが導入されている。
たとえば農業だ。これまで農作物の収穫や選別などは、人の手でしかできないとされてきた。ところが、これらの労働を担うロボットが、すでに生まれているのだ。農家の人たちが使えるようになるには、まだ価格の問題がある。だが、問題はそれだけだから、そこがクリアされて、農作業にロボットが取り入れられるようになれば、重労働に難儀してきた農家の人にとっては大助かりだろう。なによりも、高齢化が進み、衰退する日本の農業をAIが変えるかもしれないのだ。
しかしながら、一方では、「日本人の半数近くがAIに仕事を奪われる」というレポートも出ている。本当のことかどうかはわからないが、僕はまったく悲観していない。
これまで人類は、産業革命を経て、数々の技術革新を成し遂げてきた。そのなかで、次々に人間の仕事を機械が担うようになっていった。だが、機械に仕事を奪われても、それに替わる新たな仕事が生まれてきたのだ。いや、人間が必ず生み出してきたといっていい。それが「イノベーション」なのだ。そう考えると、悲観どころか、僕はむしろワクワクする。
ただし、ひとつ強い懸念がある。AIの兵器利用だ。
AIに詳しい若手実業家の塩野誠さんは、「米空軍では1990年代後半から武装無人航空機(プレデター)を運用し、近年は中東で遠隔操作のドローンによるテロリストに対するターゲットキリング(標的殺害)を行っている」と、ある雑誌で語っている。戦闘区域での任務は、「IT技術によって無人化が進められてきた」とのことだ。
無人兵器はすでに実用化され、さらに、AIを利用した兵器の「自律化」が実現するという。塩野さんによると、「米空軍は2047年までに戦闘機は完全自律化されると、2009年発表の計画で述べている」ということだ。兵器が自律化するということは、つまり、人間の判断や指示なしに、兵器が人を殺す可能性があるわけだ。
「急速に進展する兵器の無人化、自律化について、グローバルな規制はどうなっているのだろうか」と塩野さんも危惧している。AI化が進むなかでの倫理問題が、とても重要な課題になると僕も考える。
AIは倫理を持たない。したがって、暴走する可能性は大いにある。それを人間が阻止できるのか。これは、もはやSF映画ではないのだ。
たとえば、もし戦争で自律型兵器が使用されたら、どうなるのか。そして、もし人間による歯止めが効かなくなったら、どうなるのか。僕たちも真剣に考えなければならない、重大な問題である。
放送法第4条は倫理規定だから守らなくてもいい。
そういって法律や倫理すら無視してメディア権力を乱用している田原総一朗がAIの倫理問題を語る資格などない。『お前が言うな』で終了である。
これまで鼻息荒くさんざん自民党の腐敗を批判してきた田原総一朗が民進党の蓮舫についてはパッタリと口を閉ざしている。
「蓮舫氏がかわいそう。守るべきだった。」と主張しただけだ。
予想通りだったが、田原総一朗は違法行為を誤魔化して権力の座にしがみつこうとしている政治家を、自分の身内であり個人的に寵愛しているからとう理由で擁護している。
こんな理屈が通るなら、もはや言論以前に法治国家ではない。「法の支配」の上位に「田原総一朗の意向」がある。とんでもない無法者だ。
AI、ロボットによる戦争は、ロボット同士が戦って、人間が死ななくなるから、むしろいいかもしれない。
戦闘機も無人になり、撃墜されても人は死ななくなる。しかし、問題も出てくるから、国際法を作るべきでしょう。
これからAIは進歩するでしょうね。
会社は大きく変わると思う。中心にAIがあり、社員はすべて端末でAIつながり、AIとやり取りをする、今の会社組織はなくなる、課長とか部長とかもなくなる。社長も取締役も新人も同等にAIにつながる、現在なら新人社員の案は通らないが、AIが判断するので、良い物なら採用されるようになる。自宅で仕事ができるようになる。
研究所もAIが中心に置かれる、現在は良い発見をしても、認められなかったり、つぶされたりするけど、AIが判断するので、平等になる。
会社の場合、企画やアイデアは人間がするけれど、評価決定はAIがする。
AIのブラックボックス化が著しい場合、AIと核が結び付けば、責任の所在が曖昧になるリスクは考えられる。偶発性も増すのか、よく検討するべきだろう。
「AI戦争」においては、戦争に至らなくても、示威行動がどうなるのか、テストや演習はどうなるのかということもある。人間の動きを自動的に認識出来るかどうかやってみないと分からないとすれば、問題になるだろう。
AIによる自動運転車にしても、テロに使われる恐れもある。
最低限、戦争利用やブラックボックス化を規制する必要があろう。
人間からAIが半分以上仕事奪ったらどうなるんでしょうね、AIが人間の変わりに税金払うんでしょうか?そう考えてしまいました。AIとそれを使用する企業からの税金の取り方もかわってくるでしょうね ベーシックインカムの話もでてくるかもしれません、 次に領海 領空警備という面ではAI搭載戦闘機など有効かもしれませんね ただ攻撃判断は最終的に人間が判断するようにした方がいいと思います。完全自律型だと亡命のために船に乗ってきた難民を攻撃する場合もありますし、それを攻撃するか しないかは人間しか判断できないと思います あと話は全く変わりますが、警察の交通取締りによる交通反則金 膨大な金額だと思います。これを 有効利用できないかと勝手に思っています。具体的にはがん抑止のためがん検診ほぼ無料に国民に提供できるような環境をつくるべきだと思います。そうすれば、早期にがんを発見でき早期の手術を施すことで膨れ上がる医療費も抑える事もできるのではと最近、思ってしまいました。
>AIは倫理を持たない。したがって、暴走する可能性は大いにある。
倫理を持たない田原総一郎が暴走している現状を見るとこれは大いに説得力がある。
AIのように近未来的で不確定要素の多いモノは人々の不安を煽る情報工作に利用されやすい。
上記の「AIの無人兵器」の例でも、無人機が凶悪犯やテロリストを殲滅するのか無人機が無実の民間人を虐殺するのかごっちゃにして「兵器が人を殺す」を表現しているのは、いかにも田原総一郎”らしい”手口だ。
包丁でもインターネットでもAIでも、平和利用すれば人の役に立ち、悪用すれば人を傷付けることができる。全世界の人間にAIを悪用しないよう約束させるなど物理的に不可能だ。ならば法規制と罰則で強制力を持たせるしかない。
それでも田原総一郎のように「放送法第4条は倫理規定だから守らなくてもいい」などと勝手な解釈で法律を捻じ曲げ、メディア権力を乱用する人間は現れるものだ。
もしAIで兵器が暴走し人間による歯止めが効かなくなるとすれば、それは田原総一郎のような人間がAI利権を独占した時だろう。
背伸びせず、我を張らず、欲を出さず、身の程を知る。肩の力を抜き化粧を落とし、等身大で、ありのままに生きる。空の心。毎朝、鏡を前に化粧を落とし等身大の自分を知る。言うは易く行うは難し。等身大で生きているかどうかをアドバイスしてくれるAI鏡が開発されれば売れるのではないでしょうか?仕分けの花。白百合の花。Themisの花。それぞれ頑張っていただきたいものです。
田原総一郎に放送倫理を守らせる方法が見つかればAIの暴走を止めるヒントになるかもしれない。
>AIは倫理を持たない。したがって、暴走する可能性は大いにある。
倫理を持たない田原総一郎が暴走している現状を見るとこれは大いに説得力がある。
AIのように近未来的で不確定要素の多いモノは人々の不安を煽る情報工作に利用されやすい。
上記の「AIの無人兵器」の例でも、無人機が凶悪犯やテロリストを殲滅するのか無人機が無実の民間人を虐殺するのかごっちゃにして「兵器が人を殺す」を表現しているのは、いかにも田原総一郎”らしい”手口だ。
包丁でもインターネットでもAIでも、平和利用すれば人の役に立ち、悪用すれば人を傷付けることができる。全世界の人間にAIを悪用しないよう約束させるなど物理的に不可能だ。ならば法規制と罰則で強制力を持たせるしかない。
それでも田原総一郎のように「放送法第4条は倫理規定だから守らなくてもいい」などと勝手な解釈で法律を捻じ曲げ、メディア権力を乱用する人間は現れるものだ。
もしAIで兵器が暴走し人間による歯止めが効かなくなるとすれば、それは田原総一郎のような人間がAI利権を独占した時だろう。
背伸びせず、我を張らず、欲を出さず、身の程を知る。肩の力を抜き化粧を落とし等身大の自分でありのままに生きる。これは周辺の三つの国にも必要なのではないでしょうか?
プレッシャーがかかると周りが見えなくなる人もおられるかと思います。視聴者や株主等のさまざまなプレッシャーを受けるメディア。無党派層の人が不信感を抱かぬような公平、公正な番組、報道を心掛けていただきたいものです。いつも公平、公正な田原先生。どのように思われるでしょうか?
田原総一朗の残念な特徴の一つは、想像や妄想を力説する言葉は多く持っているが、具体論・現実論を展開する知識を持っていないことだ。おそらく40年間、既得権益にすり寄っていれば食うに困らない生活をしてきたのでそういう勉強をする必要が無かったのだろう。
田原総一郎に放送倫理を守らせる方法が見つかればAIの暴走を止めるヒントになるかもしれない。
>AIは倫理を持たない。したがって、暴走する可能性は大いにある。
倫理を持たない田原総一郎が暴走している現状を見るとこれは大いに説得力がある。
AIのように近未来的で不確定要素の多いモノは人々の不安を煽る情報工作に利用されやすい。
上記の「AIの無人兵器」の例でも、無人機が凶悪犯やテロリストを殲滅するのか無人機が無実の民間人を虐殺するのかごっちゃにして「兵器が人を殺す」を表現しているのは、いかにも田原総一郎”らしい”手口だ。
包丁でもインターネットでもAIでも、平和利用すれば人の役に立ち、悪用すれば人を傷付けることができる。全世界の人間にAIを悪用しないよう約束させるなど物理的に不可能だ。ならば法規制と罰則で強制力を持たせるしかない。
それでも田原総一郎のように「放送法第4条は倫理規定だから守らなくてもいい」などと勝手な解釈で法律を捻じ曲げ、メディア権力を乱用する人間は現れるものだ。
もしAIで兵器が暴走し人間による歯止めが効かなくなるとすれば、それは田原総一郎のような人間がAI利権を独占した時だろう。
田原総一朗はAI兵器の脅威を吹聴しているが、現在進行形で起こっている北朝鮮のミサイルについては何も言わない。
あれだけ安保法制で政権批判していた田原総一朗が、北朝鮮が打ち上げたミサイルについては何も言わない。
何故だろうか。
北朝鮮を批判すると何か田原総一朗に都合が悪いことがあるのだろうか。
北朝鮮への忖度(そんたく)か。
田原総一朗の言論に北朝鮮のご意向が働いたのか。
誇張することなく、ありのままに等身大で生きる。誇張することなく、ありのままに等身大の、公平・公正な番組、報道を心掛ける。なかなか難しいことかと思います。ヒアリの問題で朝まで激論したならば、視聴者、そして無党派層からの信頼はいっぺんで失ってしまうかもしれませんね?
テレビ朝日の特番のタイトルが悪質。
===================
『ザ・スクープスペシャル』
ビキニ事件63年目の真実
~フクシマの未来予想図~
===================
「あたかも水爆実験と同じ健康被害が福島県でも起こるかのような表現だ」と、福島県民をはじめ日本国民全体から多くの批判が寄せられ、テレビ朝日はこっそりとサブタイトルの「~フクシマの未来予想図~」を削除した。
科学的な検証もせず、不安を煽るだけ煽って視聴率を稼ごうというテレビ朝日の下衆な社風が顕著に表れた事件といえる。福島県のことを何も考えていないし、日本の公の電波を利用する資格など到底ありえない。
AIに倫理が無いから暴走するかもしれないと心配する以前に、既に倫理を失って暴走しているテレビ朝日と田原総一郎を止めるほうが現実問題として優先である。
日頃の小さい問題に目を瞑り、会社の命運を分けるような大きな賭けのほうを優先したがために大氷山に激突した会社もあろうかと思います。天下難事、必作於易、天下大事、必作於細。大きい事も小さい事も大切にして四人将棋に取り組む。頑張っていただきたいと思います。田原先生はどのように思われるでしょうか?
AIが普及されるころには、人間の倫理観も向上していることでしょう。
しかし、AIが広まる前に、いろいろ衝突が起こることは避けられないでしょう。
それが最悪のケースになるか、それともそこまでいかずに学ぶかは、わからないが。
それよりもAIにはない人の哲学というものを人類は身に付けるべきだ。
深い深い愛してやまない、赦してやまない哲学を持っていきたいものだ。
それがなければ、歴史が語るように人間は人間の作ったものに支配され、窮屈に生きるしかないでしょう。
ロボットを超える情感あるもので生きたいものです。