BLOG

英語

【難易度★★★★☆】人工知能に人権を【英語長文読解練習1】

 

英語の長文、読んでますか?

意外と読む量が少ない英語長文。

いろんな英語長文に触れる機会は必要かと思います。

ということで、ちょこちょこ英語長文を乗っけていこうかなって思います。全文和訳はつけてますので英語を読めない方はそれだけでもどうぞ。

引用元はDiscover Magazineです。めちゃくちゃ面白いので、是非英語を読むのが好きという人は登録しましょう!

 

ちなみにですが、難易度は完全に主観です

目次

英文

In the “Star Trek: The Next Generation” episode “The Measure of a Man”, Data, an android crew member of the Enterprise, is to be dismantled for research purposes unless Captain Picard can argue that Data deserves the same rights as a human being.
Naturally the question arises: What is the basis upon which something has rights? What gives an entity moral standing?

The philosopher Peter Singer argues that creatures that can feel pain or suffer have a claim to moral standing. He argues that nonhuman animals have moral standing, since they can feel pain and suffer.
Limiting it to people would be a form of speciesism, something akin to racism and sexism.

Without endorsing Singer’s line of reasoning, we might wonder if it can be extended further to an android robot like Data.
It would require that Data can either feel pain or suffer.
And how you answer that depends on how you understand consciousness and intelligence.

As real artificial intelligence technology advances toward Hollywood’s imagined versions, the question of moral standing grows more important.
If AIs have moral standing, philosophers like me reason, it could follow that they have a right to life. That means you cannot simply dismantle them, and might also mean that people shouldn’t interfere with their pursuing their goals.

Two Flavors of Intelligence and a Test
IBM’s Deep Blue chess machine was successfully trained to beat grandmaster Gary Kasparov. But it could not do anything else. This computer had what’s
called domain-specific intelligence.

On the other hand, there’s the kind of intelligence that allows for the ability to do a variety of things well. It is called domain-general intelligence.
It’s what lets people cook, ski and raise children – tasks that are related, but also very different.

Artificial general intelligence, AGI, is the term for machines that have domain-general intelligence. Arguably no machine has yet demonstrated that kind of intelligence. This summer, a startup called OPENAI released a new version of its Generative Pre-Training language model. GPT-3 is a natural-language-processing system, trained to read and write so that it can be easily understood by people.

It drew immediate notice, not just because of its impressive ability to mimic stylistic flourishes and put together plausible content, but also because of how far it had come from a previous version.
Despite this impressive performance, GPT-3 doesn’t actually know anything beyond how to string words together in various ways. AGI remains quite far off.

Named after pioneering AI researcher Alan Turing, the Turing test helps determine when an AI is intelligent. Can a person conversing with a hidden AI tell whether it’s an AI or a human being?
If he can’t, then for all practical purposes, the AI is intelligent. But this test says nothing about whether the AI might be conscious.

全文和訳

『スタートレック:ネクストジェネレーション』の"人間の尺度"というエピソードでは、アンドロイド乗務員であるデータに対し、ピカード艦長が人間と同じ権利を受けるに値すると主張出来ない限り、データは研究目的で解体される予定である。
自然とこれらの問題が生じる。

権利を持つ何かとなるための基準点とは何か。
何が全ての道徳的地位をもたらすのか。

哲学者である'ピーター・シンガー'は、痛みや苦しみを感じることが出来る生物は道徳的地位を訴えられると議論する。
かれは人間でない動物に対しても、痛み、苦しみを感じうるという理由から道徳的地位を持っていると議論する。
人間のみに道徳的地位を限定することは人種差別や性差別に似た、種族差別を形成しかねない。

シンガーが引いた道徳的地位を持つ線引きを認めない場合、我々は道徳的地位をデータのようなアンドロイドにまで拡大してよいのかどうか、悩んでしまうことだろう。データは、痛みや苦しみを感じられることが求められたであろう。そして、どうやってその問題に答えるかというのは、あなたがどのように意識や知性を理解しているのかに起因する。

実際のAI技術がハリウッドの想像したバージョンの通りに発展するにつれて、道徳的地位に関する質問はより重要なものになっている。もしAIが道徳的地位を有するのであれば、私のような哲学者は以下のように理由づける―AIは生きる権利を持つことが出来ると。これは彼らを単純に解体することは出来ないということを意味し、もしかしたら人々は、彼らが自身のゴールに向けて追及することを妨害すべきでないことを同時に意味するかもしれない。

二つの知性の意味ととあるテスト

IBMのディープブルーチェスマシンは、グランドマスターガリー・カスパロフを打ち負かす程に上手く学習された。
しかし、他のことは一切することが出来ない。このコンピューターは固有領
域知能と呼ばれるものを有していた。

一方で、様々な領域のことについてうまく行う能力を持たせられる種類の知能もある。それは
一般領域知能と呼ばれる。それによって人が料理したり、スキーしたり、子供を育てたり―それぞれが関係するけれども、全く違うこと―をする。

AGI(人工一般知能)とは、一般領域知能を有した機械のことを指す用語である。間違いなく現存の機械で以上のような種類の知能を証明しているものはない。
この夏、OpenAIと呼ばれるスタートアップ企業が学習済み文章生成言語モデル(GPT)の新バージョンをリリースした。GPT-3は自然文章生成システムであり、読んだ文章を人々にとって簡単に理解できるものに書くよう学習されている。

それが即時的に返答を描くのは、その文体全部をまねて最もらしい文章を作る印象的な能力によるものだけではなく、その以前のバージョンから大幅に発展してきたことによるものである。
この印象的なパフォーマンスにも関わらず、GPT-3は実は様々な方法の中から文章を紡ぐ方法以上のことを一切知らない。

AGIはいまだにはるか遠くに存在する。

AI研究者の第一人者であるアランチューリング氏に命名されて以来、チューリングテストはAIが'知性'となる瞬間を決めるのに役立っている。
隠されたAIと会話している人が、相手をAIか人間か区別できるだろうか。もし区別できなかったならば、実践的な目的により、そのAIは知性である。
しかし、このテストはAIの意識については何一つとして言及していない。

まとめ

いかがだったでしょうか。

引用元からは、この後どうやってアンドロイドのデータが知性を持つといえるのかというところに言及していきます。
今後の社会的には、とても気になることなので、心理学系の学部なら入試に出てもおかしくない題材かと思います。

難易度的には高校英語長文クラスだと思います。

大体5~10分くらいで全体を読めるようになれば一人前です。

頑張って読む訓練をしていきましょう。

ではまた

==========================

”思考を深める塾 福長塾”
福島市で唯一無二ではない東大卒の講師が教える高校生向けの学習塾です。
面白い学びでなければ定着はしない。という信念のもと、勉強の面白さ、そして本質を突く授業を行っています。

授業はオンラインも対応していますので、通えない方もまずは気軽にご連絡ください。

塾長 橋本長武/ hashimoto osamu
TEL : 080-5901-8161
mail : o.hashimoto@fukunaga-juku.com

SHARE

ブログ一覧

ホーム > ブログ > 【難易度★★★★☆】人工知能に人権を【英語長文読解練習1】