読者です 読者をやめる 読者になる 読者になる

いきものいろいろ

気になった記事の紹介と日常

Google翻訳のアップデートとAIと.

 今月中旬に各方面で話題になったGoogle翻訳日本語版のアップデートですが,では何が変わったのか.そのシステムがどういったものなのか.調べてみましたのでメモ.

translate.google.com

 

 

 記事を要約すればGoogleの誇る機械学習システム「TensorFlow」Tensor Processing Unit(TPU)」で実現したニューラルネット機械翻訳(GNMT)が,英語 ⇒ 日本語の翻訳にも適用されたということのようです. 今回のアップデートにおけるキーワード,ニューラルネットワークニューラルネットワークとは一体.

 

 

 これまでの翻訳システムの多くはフレーズベースと言って文書中の各単語に相当した外国語の単語を当て,特定の文法規則を適用することにより翻訳を行っていました.これは割と簡単な話で,日本語をワープロソフト上で平仮名から漢字に変換する際のシステムとほぼ同様です.

 

 

   (例)わたしはいま,ぶんしょうをかいていています. 

 

   わたし   (代名詞) 私    → I

   は     (助詞)  は    → am

   いま    (副詞)  今    → now 

   ぶんしょう (名詞)  文章   → sentence

   かいて   (動詞)  書いて  → write

   います                writing   

            +

        英語における文法規則

   【代名詞+他動詞+冠詞+名詞+副詞+ピリオド】

 

   (訳)I am writing a sentence now.

 

 

 では,今回のGoogle翻訳で導入されたというニューラルネットワークについてです.簡単に言えばこれは人間の脳内での情報処理をコンピュータ上での処理に応用したバイオミメティクスのひとつだといえます.

 人の脳は多数のニューロンと呼ばれる神経細胞の集合であり,各ニューロンは,他のニューロンから信号を受け取ったり,信号を受け渡したりすることによって,情報を処理しています.この仕組みをコンピュータで実現しようとしたのがニューラルネットワークなのです.

 

 

 具体的な原理についてですが,こちらに詳しかったため,リンクを貼っておきます.

 

 要は,シグモイド関数(≒ニューロン単体)を連続させて,それらを近似させる原理ってことだと思います.

 

https://wikimedia.org/api/rest_v1/media/math/render/svg/fffc55ca26120a55978bb7136e92d7455bec59fa

 

 シグモイド関数は文系脳の僕でも聞いたことがありますね,うんうん.

 

 

 いわゆるAI,つまり人工知能における学習機構はこのニューラルネットワークのより多層な構造を用いた原理が一般的です.機械におけるこの学習法はディープラーニング(深層学習)と呼ばれます.

 ニューラルネットワークという手法そのものは1950年代には提唱されていましたが,主にマシンスペックが不完全であったために,近年まで研究が大きく進展してくることはなかったようです.

 

 最近突如聞かれるようになったビックデータというキーワードもAI技術と関連しており,つまり,より大きな情報(ビックデータ)により機械をディープラーニングさせることでよりエラー率の低い高度なAIを作り出すことができるというわけです.

 

wired.jp

 ここ数年で私的に,まず最初にAIの大きなニュースとして取り上げられたと思うのが上の記事です.Googleyoutubeの画像を大量にディープラーニングに与え,16,000のCPUコアで3日間計算したところ猫を自ら認識できるようになったと発表し、物体認識タスクにおいては従来手法より飛躍的な進歩を遂げたといわれました.

 

 これが2年前の記事ですから,現在はさらなる発展を遂げています.

wired.jp

bitwave.showcase-tv.com

blogos.com

 

 

 人工知能の社会への浸透と導入によっていくらかの職が機械に奪われ,雇用が喪失する~~なんて言われだして久しいです.まぁ,僕はそんなことはないだろうと思っていますが笑

 

 

 では最後にAI研究からこんなことがわかるのか.という面白い記事があったのでひとつ貼っておきますね.それでは.

bylines.news.yahoo.co.jp