社会人はリラックスしたい

社会人はリラックスしたい

アラサーリーマンです。漫画の感想を主に、メンズファッション初心者向けの服レビュー、乗馬未経験者・初心者向けの記事を書いていきます。

漫画「幼女戦記」19巻 感想 カラーページが、カラーページがあるぞーー!!

こんばんは、へるもです。

 

あいも変わらずコロナで息苦しい世の中になりましたね。

gotoキャンペーンとかやってますが、会社の自粛要請+田舎の堅苦しさでどこにも行けないし、どこにも行けないと何かをする意思がなくなってしまいます。

 

と、いうわけでちょっと遅くなってしまった19巻の感想です。

 

 

表紙

f:id:herumo:20200725130007p:plain

 幼女戦記19巻より

ノイマン(だよね?)初登場!これまで表紙には出てこなかった中隊長ですが、やっと出てきた!

もっと恰幅がよい印象なのでもしかしたらヴァイスかと思いましたが、このもみ上げは彼でしょう。

余談ですが、育ちが良いアピールをしたり彼は謎のキャラ立ちしてますよね。

 

 

というかポニテポニテ言ってきましたけど、グランツ君の優遇度合いが凄い!漫画本編でもフィーチャーされてましたし、表紙にもしっかり登場しています。

ケーニッヒが浮かばれないぜ、、、グランツ君は原作でもブイブイ言わしているやつなので当然といえば当然かもしれませんが、今回のケーニッヒは裏表紙でもバーコード欄できり飛ばされているんですよね。

特段気に入っているキャラでもないのですが、流石に同情します(笑)

 

 

突然のカラーページ

普通にびっくりしたんですが、漫画の頭にカラーページがついてましたね。ざっと見直した感じ同じ描写があったのは1巻だけでした。

 

しかも1巻といえどカラーページは3Pしかなかったのに、19巻では6P!!なんと二倍です。戦勝記念予算で編集部が大判ぶる舞したのかもしれないですね。(敗戦フラグ)

 

f:id:herumo:20200725132547p:plain

f:id:herumo:20200725132623p:plain

 幼女戦記19巻より

そして、中身は表紙と(ほぼ)同じ!

いやーいいね。(語彙)

 

ずっとあの綺麗な絵が中途半端に隠れているのがもったいないなと思っていたんですよね。18巻では大佐殿が隠れてしまって残念に思っていました。

 

大活躍の大佐殿ですが、惜しむらくは裏表紙の大佐殿の勇士が中途半端であるところ。

途中から幼女戦記のカバーを袖+表紙+背表紙+裏表紙の一前画で載せてくれるようになったんですが、それでも価格とか入れる部分が白抜きになっているんですよね。

これまではあまり気にしていませんでしたが、今回はこの白抜きが邪魔だなぁと思いました。

 

編集部の人もお金があったら全部載せたかったんだろうな。これがマンガ一位のパワー@bookwalkerだ!

f:id:herumo:20200725134741p:plain

bookwalker販売サイトより

 

なんとなくターニャたちの服は緑色のイメージが合ったのですが、紺のほうもかっこいい。顔の向きはなぜこうなっているのだろう。素案が左向きで、表紙だからとこっちを向いたのだろうか。

左を向いていると未来を感じさせる絵になりますね。顔の向きでこうも印象が変わるとは。文字デザインの影響も大きいけど、左向いているほうが映画のパンフレットぽいですね。

 

 

 

文字が銀色

あと皆さん気づきました?表紙じゃないほうのイラストって「幼女戦記」の文字が銀色なんですよね。

幼女戦記といえばどぎついピンクのイメージなのですが、銀色verも存在するようです。管理人はこれが結構好きです。なぜなら「白銀」のターニャだからね!

 

「作者そんなこと考えていないと思うよ」という言葉に代表されるように、いろんなものを拾って意味を求めすぎるのは感想を書く人の悪い癖だと思うのですが、物事のリンクを感じるのっていいですよね。

 

しかもしかも!

1巻のカラーページも幼女戦記の文字が銀色!

 

f:id:herumo:20200725133223p:plain  

幼女戦記1巻より

拍子はピンク、本編カラーページは銀色!この統一感いいね!

やっぱり物事はかくのごとく美しくあるべきです。

 

こうやって見比べると1巻のタッチはずいぶんとマットですね。こちらも兵器の無骨さと引き算のおどろおどろしさがあって好きです。

ターニャの美しさは1巻のほうが上なくらいですが、中身が頭のおかしいおっさんだということを知ってしまっている今、クールビューティすぎるかも。(笑)

 

カラーページだけでだいぶと時間を使ってしまったぜ、、、

 

 

対比

冒頭はドレイク大佐が再登場でした。病床でもかっこいいぜ。原作では裏をかかれたジョンおじさんとチャーブルさんが出てきますが、漫画ではドレイク大佐という魔道士に焦点が当たっていました。

より正確に言えば洗練されて子を諭せる魔道士一家に、というべきですね。

 

 

遺児

対比されたのはもちろんドレイク一家とスー一家。

どちらもエースオブエースの親と才能を受け継いだ子どもという取り合わせで、なによりラインの悪魔たるターニャの敵でした。

 

ここは単純に親(あるいは尊敬できる上位存在)からの教えを受けた子どもと受けることができなかった子どもの違いを端的に表しているだけにも見えます。

ただ、戦争の勝敗の決め方がなんらかの合理性から出血量に変わってきたということを描いてきた幼女戦記ですから、このシーンはすごく象徴的に見えました。

 

【G検定】日本ディープラーニング協会さん検定料を半額にして集めた受験者をなぎ払う? G検定の取得はしばらく様子見のほうがいいのでは

こんばんは、へるもです。

 

7/4にG検定という資格試験を受験しました。というのも、今回はstay homeに伴ってできた時間を勉強に当ててくださいということで、受験料が半額(12,000→6,000)だったんですよね。

 

 

結論

2020年に入りG検定の出題傾向が大きく変わりました。

色々といわれていますが、テキストとの乖離が大きい点、今のG検定をとるために勉強してもビジネスには役に立たない点からG検定取得はおすすめしません

出題範囲はこの中からですよ、という本が出たりしたらありかなと思います。

 

代わりに、study-AIの模試(無料)を解いて分からないことを勉強して、関連の書籍を何度も読むのが一番かと思います。 書籍についてのお奨めは最後のほうに書いておきます。

そこだけが知りたい方はお手数ですが、れっつスクロール!

 

 

挑戦者たち

G検定には興味があったのですが、これまでは受験していませんでした。

こういう資格は、それを取る過程で勉強することが役に立つことはあっても、資格自体はあまり意味がないのが常です。1万円を超えるなら受講はしなくてもよいなかなぁと思っていました。

が、今回はなぜか受験料が半額になるということだったので、それならやってみるかと思いました。

 

  

同じように考える人も多いようで、これまでの受験者数が2.2万人に対して、今回だけで1万人以上でした。直近と比べても2倍くらいの人が受験していそうですね。

 

f:id:herumo:20200705072714p:plain

JDLA、2019年第3回G検定を11月9日に実施、累計合格者数は14523名に:CodeZine(コードジン)

 

 

内容と想定された難易度

そもそもG検定とは何ぞや?という部分では、日本ディープラーニング協会(JDLA)が使っている表現を使うと下みたいな感じです。

 

ディープラーニングに関する知識を有し、事業活用する人材(ジェネラリスト)

「知識を体系化し、ビジネスでの活用へ」

 

AIというとプログラミングが必須な技術分野の話にも聞こえてしまいますが、実際にはそれをどこに使うか?ということを考えたり、法律的な問題をクリアしないといけません

G検定というのはそういった周辺知識を持ちビジネスに役立てることができる人材(=ゼネラリスト)であることを認定するための試験だ、というのが私の解釈でした。

 

実際、G検定の公式テキスト(通称、白本)にはプログラミング要素はまったく出てこず、AI研究の歴史や重要人物、AIで何ができるか?という部分が記載されているにとどまります。

 

 

難易度

事前に調べたところによると、それほど難しくないようでした。

白本をみてもそれほど量がありませんし、評判のいい対策試験集(studyAIから出ている本、通称黒本)もきちんと勉強したら簡単に90%の正答率がとれます。

 

f:id:herumo:20200705080709p:plain

文系の営業職でもAI資格「G検定」に合格できた方に対策を聞いてみた! | IT資格の歩き方

実際、中には一週間で合格したという人もいますし、落ちた人の記事でも、落ちた理由に「ろくに勉強していない」が堂々と書かれるくらいです。

もっとマシな理由はなかったのか、、、!

 

ここから想定されたG検定の立ち位置は、資格自体には意味がないけど、AIについてさらっと学習できる、というところでした。

 

 

 本番

 難しい!!

想定異常の難易度に試験終了直後からついったーは阿鼻叫喚という感じでした。

 私も白本、黒本の正答率を90%に上げた上で、AI白書も一読して臨んだのですが、普通に難しかったです。絶対に落ちたというほどではありませんが、不合格というのは普通にありえます。

 

  

雑感 

模試などと比較して、これまでと違うのは3(4)点だと感じます。

・自動運転、ドローン、著作権など法律系の問題が増えた

強化学習など、より細かい部分が出題されるようになった

・同じ問題でも表現が違う言葉を使うようになった

(・人名などがほとんど出なかった)

 

特に法律系が出題されるという部分に関しては、この傾向は2020年に入ってからずっと続いているようです。

 

私もこれを見てある程度対策していたつもりだったのですが、想定より法律系の問題が多いし、細かすぎました。具体例をあげて説明できればよいのですが、検索で必死だったために覚えていません。(笑)

 振り返ってみてもテキストと内容の乖離がやはり一番の「なんだそれ」という理不尽ポイントですね。テキストにないものは記憶にもないので、検索して答えを探すしかありません。

AI界隈の能力を測定する検定というより、グーグルでいかに早く答えを見つけるかの検索力と読解力を測定されているのでは、、?もっと言えば打ち込まれたキーワードの意図をよむ”グーグル検索の能力"をこちらがテストしているようですらありました。

 

 

JDLAの意図とは?

そもそも傾向がかわったのかすらわかりませんが、傾向が変わったという前提に立つと、JDLAの意図とはやはり最新情報を知っているのかという部分を測定したかったのかなと思います。

 

整備されていなかった法律がどんどん形になってきている段階ですし、さらにAIというかITの世界は他の業界に比べても明らかに進歩が早いです。

こういうところにも対応しているべき!というのが出題者の意図だったのでしょう。

 

もしかすると、JDLA2021公認動画みたいな感じで、各会社が動画を売ってその中に最新動向を含めるようになったりするのかもしれません。G検定を受けるならこの動画みないと合格しないよ形式ですね。

結構細かいので動画にするのにコスパがあうのかという問題もありますが(笑) 

 

 

G検定の受検はしばらくお奨めできない

まだ合否判定が出ていない段階なのですが、受験をしてみて思ったのはG検定はお金と時間の無駄だなというところです。

 

 

"G検定を受ける"ということがビジネスで役立つ気がしないからです。

 

私の(そして一般的な現場の人間の)期待や目的としては、G検定のテキストにゼネラリストとして必要な知識がかかれており、G検定取得の改定でそれらを身に着けることができるということではないかと思います。

 

G検定をパスしているから就職に有利になるとか、そんなことはそもそも資格自体の効力には期待していません。人件費で苦しむ日本企業はそんなに甘くありません。

 

しかし、ふたを開けてみるとG検定の問題にテキストから出てきた問題はごくわずかでした。あのテキストではまったく不足しており、なおかつ古いよって言われているような気分です。

それは正しいのかもしれませんが、公式テキストですらその体たらくではどうやって勉強したらいいのか、、、目的である勉強を達成することができません。

 

 

G検定を受検する代わりに

私は現場で使っているエンジニアですが、一方でもっと泥臭い現場からデータサイエンスで解決できる問題はないかをひっぱりあげ答えを探すゼネラリストでもあります。

繰り返しになりますが、この観点から言うとG検定というのはやはりあまり意味がないな、と思います。自動運転とかドローンとか使わないし、著作権を気にする段階にまで到達することなんてめったにありません。

 

そういう意味ではJDLAは一般の製造業の現場のリアルを知らないのではないかと思います。AIではありませんが、マテリアルインフォマティクスやソフトセンサーの話も一切出てきていませんでした。

 

それではG検定の勉強自体が無駄だったのかというとそんなことはまったくありません。今回不合格だったとしてもよい勉強になったなと思います。

現場の人間の立場からのおすすめの勉強方法としては下記のとおりです。

 

 

おすすめ書籍たち

・エンジニアなら知っておきたいAIのキホン

勉強する上でこれが非常によかったです。おすすめ。

白本の技術的な内容(CNN, RNN, LSTM)に着目してもっと詳細に書いてある本です。「エンジニアなら」と書かれていますが、仮に皆さんが技術系でなくてもこれくらいは知っておいたほうがいいというぎりぎりを狙っているようにも思います。

 

ちょっと細かくて眠くなる部分もありますが、尤度って何?Qって何?という言葉だけ覚えて飛ばしてしまうような部分をもっと細かく解説してくれています。

こういう部分に着目する人というのはかなり原理にこだわる人なので、そういう人から学ぶのが一番です。

 

加えて、なんかチャラいんですよね。ところどころにマリちゃんを狙っているAIエンジニアの小話みたいなのが入っていてそれが箸休めにちょうどよいです。

 

 

・Study-AIの模試(http://study-ai.com/generalist/

AI研究の歴史、直近の出来事、技術に関する基礎的な部分を幅広く勉強するのによいです。まず解いてみて、わからないところをググッて調べるのがいいのかな、と。

たとえばReNetとかはビジネスでも活用シーンがありますが、それができた経緯などを知っていると仕事がやりやすくなると思います。

なんで?と聞かれると難しいですが、たとえば料理でも野菜の旬を知っておいたほうがよりよいものができるはずです。周辺情報と背景情報はある程度知っておいたほうが情報の取捨選択により目的を達成しやすくなります。それと同じですね。

 

本がよければこちらがお勧めです。通称、黒本ですね。公式のテキストをおって勉強していくより、この本を解いて分からないところを調べていくというのが知識の習得に役立ちました。

 

 

人工知能は人間を超えるか

G検定の推薦図書ですね。

正直これをよんでもG検定受験の役には立たないのが現状ですが、この本単体としてみれば面白いです。

技術的な内容というより、松尾教授という日本での第一人者がどのように考えているかを知ることができるのが非常によいです。プロジェクトX私の履歴書が好きな人は好きかもしれません。(あの方向性とはちょっと違いますが)

 

私がG検定を受けて意味がないなと思っているのにも関わらず、悪感情をもっていないのはこの人のおかげと言っても過言ではないでしょう。

一度講演を聴いたことがあるのですが、黎明期から日本でのAI活用を広めるために奔走されている方です。

 

 

・AI白書 

あとは上記ではカバーできない法律部分です。

これが全てカバーしているわけではないのですが、これをよめばこんな要素があるんだということを知れると思います。

問題はタウンページくらいのサイズだというところですね(笑)

 

 

まとめ

G検定受験を迷ってこのページにたどりついた方がいたら、私はやめておけ、といいます。理由はこれまで書いたとおり何に使えるか分からないからです。

ただ、それはディープラーニングを勉強するなという意味ではありません。むしろ勉強はしたほうがいいです。エンジニアにとっては必須のスキルになる可能性があります。

 

その勉強方法を自分なりに導き出せたという意味で、たとえ落ちたとしてもG検定受験に後悔はありません。なんとなく分かった感じを得るためには上記の本を読んで、模試を解いて、というのを何度か繰り返す(2周くらいしたいところ)のがいいと思います。

本を全て買うと8千円くらいかな?G検定の受験費用より安いですね。

 

どれか1冊買うとしたらエンジニアなら「AIの基本」、そうでなければまず人工知能は~」を読むことをお勧めします。

 

G検定を受ける予定の人は、、、Good luck!

 

herumo.hatenablog.com

herumo.hatenablog.com

 

G検定に向けたチートシート 当日用のカンペ

こんばんは、へるもです。

 

いよいよG検定ですね!

圧倒的な暗記項目の多さにやる気を失っていたのですが、インターネットで調べてもよいという特長を活かして、カンニングペーパーを作ることにしました。

 

herumo.hatenablog.com

 

 

 

 

チートシート

考えることはみんな同じようで、ネットで調べると幾つか出てきますね。「G検定カンペ、まとめ、チートシート」とかが検索ワードとして強いようです。

ただ、いくつのページを開いて検索するというのは不合理ですし、次の項目で紹介するページを参考にして、ここにないものをまとめる、といった形で作成しました。

これだけ書いても足りないんだろうな、と思うとつらいのですが、それでもないよりマシです。

 

自分用のメモなので間違っていたらごめんなさい。何かあれば、ご指摘ください。

 

 

使い方 

【G検定チートシート】AI関連法律や動向含む試験当日のカンペ | WATLAB -Python, 信号処理, AI-

 

①上のページとこのページを開いておく 

②わからなければ、この2つから検索する(ctrl+F)

 

google先生に頼ればいいでしょと思う方には、そのとおり!っていいたくなるのですが、ぱっと分かりやすいやつに出会う確率が少なかったんですよね。はずれを引くと文章が長い。

とはいえgoogle先生もやはり強力なので、基本は三刀流かな。

 

このように引用元がかかれていないものは上記のページから引用させてもらいました。丸っきりのパクリにならないように引用したものにはデータを付け足しましたが、偉大なる先人には感謝です。 

 ※がついているのは管理人のコメントです。精度は低いかもしれませんが、難しい言葉を言い換えるときとかに使います。

 

 

こっちも重要?

法律や政策ベースのものが出題させる傾向があるとのことなので、それっぽいものを探してきました。

まとめている時間がないので、何が書かれているかをさらっと把握して後は運任せですかね。

【ディープラーニングG検定対策】ディープラーニングの応用に向けて | シミュレーションの世界に引きこもる部屋

ディープラーニングの産業への応用 その1 | シミュレーションの世界に引きこもる部屋

ディープラーニングの産業への応用 その2 | シミュレーションの世界に引きこもる部屋

ディープラーニングの法律、倫理、現行の議論 | シミュレーションの世界に引きこもる部屋

 

 

少しお得な問題集

ちなみにG検定の問題集(黒本)がキンドルで半額のようです。

定価で買っちゃったよ。評判もよいので、最後の追い込みにいいかもしれません。

 

 

後は、D検定を主催しているJDLAの松尾先生の本(推薦図書)がキンドルアンリミとaudibleで出ていますね。無料体験があるので、まだ読んでいない方は目を通しておいてもよいかもしれません。

勉強が足りない方は問題集をしたほうがいいと思いますが、読み物としても普通に面白かったです。

 

 

こういうのも大事。

 

ソフト関連

Deep Blue

1996年にIBMが開発

チェスの世界チャンピオンガリル・カスパロフに勝利

力任せの探索

10~14手先を読む

 

Bonkras

将棋ソフトウェア

2011年 世界コンピュータ将棋選手権で優勝

2012年 将棋電脳戦

現在はPuella αと解明

 

Ponanza

将棋ソフトウェア

山本一成らが開発

2012 電脳トーナメントを制する

2015  世界コンピュータ将棋選手権で優勝

 

sharpchess

オープンソースのチェスソフトウェア

 

Deep Dream

2015 年  google

通常の画像をまるで夢に出てくるかのような不思議な画像に変換して表示するプログラム

 

Tay

マイクロソフトの対話型ボット

ツイッターを利用

不適切な調教によりやらかした

 

AlexNet
2012年のILSVRCでトロント大学のジェフリー・ヒントン率いるチームが使用し、2位以下に圧倒的な差をつけて優勝したネットワーク。8層。調整するパラメータは60,000,000にものぼる。 

→Alex Krizhevsky

 5個のcovolutional層と3個のpooling層が存在

 "stride of 4"

 

ResNet
2015年のILSVRCで優勝。152層。Microsoftのチームが開発。これまで以上に層を深くできるようにスキップ構造を導入した。

→スキップ構造=インセプション(inception)モジュールの導入

→出力を「入力」と「入力からの差分」の和としてモデリングした

→求めたい関数と入力のと差である残差を学習するようにした

 

→CNNでは沢山の層を重ねた結果、学習に用いられるパラメータの数が膨大となり、学習が上手く進まないという問題が生じていた。ResNetは入力層から出力層まで伝播する値と入力層の値を足し合わせたモデルで、入力層まで、勾配値がきちんと伝わり、 深い構造(1000層)でも学習が可能となった。2015 年の ILSVRC で人間の成績を上回る成果をあげた

Microsoft Research(現Facebook AI Research)のKaiming He

 

VGG16
2014年のILSVRCでGoogLeNetに劣らない性能を誇ったオックスフォード大学のチームのCNN。16層。GoogLeNetには及ばなかったが、シンプルなネットワークなので技術者に好んで使われる。

教師あり学習

※VGGnetともいう?

 

STRIPS

前提条件、行動、結果の3つの組み合わせで記述する

人工知能が自律的に行動計画を作成する技術であるプランニングで有名

 

SHRDLU

テリーウィノグラード

積み木の世界

物体の動かし方をプランニングできた言える

 

LeNet

1998にヤンルカン氏が発表したCNNの原型

多層CNNに誤差逆伝播法を適用した手法

 

WaveNet

音声生成でブレイクスルー

google Deep mindが2016年に開発

RNNではなくCNNを用いている

 

ライブラリなど

OpenCV:画像に特化

mecabオープンソース 形態素解析エンジン

Julius:音声認識システムの開発・研究のためのオープンソースの高性能な汎用大語彙連続音声認識エンジン

OpenNLP:自然言語処理のためのツールセット

 

画像処理

R-CNN(Regional CNN)

関心領域(ROI)の切り出し → CNNを呼び出す

ROIきりだしにはCNNはではない従来手法を使ったので時間がかかる

※ROI:見たい領域、どこに識別するかという領域

高速RCNN

切り出しの画像認識を同時に行う

→faster RCNN:ほぼ実時間で処理が可能。動画認識にCNNを使えるようになった

 ↓

物体検出(画像検出)

画像内に含まれるとある物体を取り囲むようなボックスを推定するタスクを行うもの

2014:R-CNN

2015:Faster R-CNN

2016:YOLO(You only look once)

SSD(single shot detector)

f:id:herumo:20200701192204p:plain

自動運転にも応用される精緻な画像認識技術、「画像セグメンテーション」とは?事例を交えてわかりやすく解説|株式会社インキュビット

 

物体セグメンテーション(画像セグメンテーション)

対象とする物体とその周囲の背景境界まで切り分けるようなタスクを行うもの

  

特徴はFCN (Fully Convolutional Network/完全畳み込みネットワーク)

※画素ごとに判別している、だったかな?

CVPR 2015, PAMI 2016で発表

Semantic Segmentation手法

全ての層が畳み込み層

入力画像の画素数だけ出力層が必要

 縦画素×横画素数×カテゴリー数

 

特徴量から画像を生成する際はCNNと逆の操作を行う

畳み込み層→逆畳み込み層

プーリング層→アンプーリング層

アンサンプリングにより解像度を復元

f:id:herumo:20200701192243p:plain

自動運転にも応用される精緻な画像認識技術、「画像セグメンテーション」とは?事例を交えてわかりやすく解説|株式会社インキュビット

 

画像セグメンテーションは2種類

1つは,個別の物体を区別するインスタンスセグメンテーション(Instance-aware Segmentation)

(上で言えばcowを1~4に区別される)

もう一つは,同一クラスの物体であれば個を区別しないSemantic Segmentation(セマンティックセグメンテーション) 

 

画像キャプション

画像内に表示されている女性を認識し,「青い服を着てスマートフォンをいじっている」などのようにその対象が何をしているかを表示させること

画像をCNNに入力し、そこから得られた特徴をLSTMに入力することで生成

CNNとRNNと組み合わせ

f:id:herumo:20200702070110p:plain

日本語による画像キャプション自動生成AIを作ったので丁寧に解説します! - Qiita

   

画像分類

f:id:herumo:20200701192124p:plain

自動運転にも応用される精緻な画像認識技術、「画像セグメンテーション」とは?事例を交えてわかりやすく解説|株式会社インキュビット

この画像は何を示しているのか?という操作をすること 

 

 

動画認識

Spatio-temporal ConvNet 

動画の10フレームをCNNに入力し、行動認識

 

Two-stream CNN

Spatial stream ConvNet:フレーム画像を認識

Temporal stream ConvNet:動きの情報を認識

 

動画データセット:Kinetics DeepMind

→Inflated 3D ConvNet (I3D)

 肺がん診断AI:人間の専門家に匹敵 or 上回る精度

 

 

音声認識

End to End 音声認識

音響特徴量から音素,音素から文字列,文字列から単語列に直接変換して言語モデルを学習するアプローチ

ディープラーニングは入力から出力を一括で行うことができるEnd to End learning

従来の音声認識はステップバイステップの処理が必要だった

(音声波形→音素→文字→文字列→単語→単語列)

 

音素状態認識

音声の周波数スペクトル,すなわち音響特徴量をインプットとして,音素状態のカテゴリに分類する

 

雑音・残響抑圧

音声を認識したい対象とそれ以外の雑音に分離する

 

音声合成

人間の音声を人工的に作り出すこと

 

言語モデル

自然言語処理などにおいて、文の品詞や統語構造、単語と単語、文書と文書などの関係性について定式化したもののことである。 言語モデルは、多くの場合は統計学的な観点から数式などを用いて確率的に定められる。

確率を精密に設定することにより人間が用いる言語は理論上モデル化できる。

 

代表的な言語モデルとしては、Nグラムモデル、隠れマルコフモデル、最大エントロピーモデル

 

隠れマルコフモデル(HMM)

1990年代の音声認識

音自体を判別するための音響モデル 

HMM+DNNの組み合わせがよい結果を出す 

 

GMM

 

 

Nグラム法

1990年代の音声認識

語と語のつながりを判別する言語モデル

 

自然言語処理

機械翻訳、画像説明文生成→できる

構文解析、意味解析→精度向上はしているが、、、

文脈解析、常識推論→実用的な精度は見込めない

 

word2vec

 トマスミコロフ

記号をベクトルとして表現することにより、ベクトル間の関係や距離として単語の意味を表現しようとするモデル

「王様」ー「男性」+「女性」=「女王」

単語埋め込みモデル、ベクトル空間モデルとも呼ばれる

 

スキップグラム(Skip-gram)単語を与えて周辺の単語を予測

CBOW:単語を与えてある単語を予測

 

fastText

トマスミコロフ

単語の表現に文字の情報も含める

学習に要する時間が短い

 

ELMo

アレンインスティチュート

文章表現を得るモデル

 

bag-of-words

文章に単語が含まれているかどうかを考えてテキストデータを数値化(ベクトル化)

Bag of Wordsについて書いてみる - どん底から這い上がるまでの記録

 

Ngram

単語単位で区切った形態素解析とことなり、Ngramでは任意の連続したN文字単位で区切

 

TF-IDF

Term Frequency(TF)

Inverse Document Frequency(IDF)

文書の中から、その文書の特徴語を抽出する時に使う

単語の重要度を特徴量にする

いくつかの文書があったときに、それらに出てくる単語とその頻度(Frequency)から、
ある文書にとって重要な単語はなんなのかというのを数値化

 

形態素解析 

文法的な情報の注記の無い自然言語のテキストデータ(文)から、対象言語の文法や、辞書と呼ばれる単語の品詞等の情報にもとづき、形態素(Morpheme, おおまかにいえば、言語で意味を持つ最小単位)の列に分割し、それぞれの形態素の品詞等を判別する作業

 

制限ボルツマンマシン(RBM)

音声認識で使用される

 

自動運転

米国ネバダ州では自動運転の走行や運転免許が許可制にて認められた

 

 

ドローン

飛行禁止空域
・空港周辺
・150m以上の上空
・人家の集中地域(DID)

飛行ルール
・日中のこと
・距離の確保を行うこと
・催しを行っている場所は飛行禁止
・危険物輸送の禁止
・物件投下の禁止

国土交通省への申請で許可を受ければ飛ばすことができる。守らないと50万円以下の罰金。ルールは総重量(バッテリー等本体以外の重量含む)が200g未満の場合は対象外。

 →夜間の禁止

 人口集中地区の上空・イベントなど大勢の人が集まる場所での飛行禁止

 ひと・ものから30m未満の飛行は承認が必要

風速が5m/s以下のコンディションでなければ飛行はできない

風速と速度の和が7m/s以下とすること

→国会議事堂や内閣総理大臣官邸、外国公館、原子力事業所の周辺地域は「小型無人機等の飛行禁止法」により飛行禁止空域

きっとあなたも間違えている。国内ドローン規制3つの落とし穴

 

 

セキュリティ関連

スパムメール判別

LSTM, ナイーブベイズ

 

Adversarial Examples

AIへのサイバー攻撃

Evasion attack : 難読化(暗号化,画像ベース)
Poisoning attack : 訓練データの操作,ラベルの反転

 

 

AIを作るうえでのあれこれ

 フレーム問題
無限にある可能性からの探査には無限の時間がかかってしまう問題。このフレーム問題を克服したAIを強いAI(汎用AI)、克服できないAIを弱いAI(特化型AI)と呼ぶ

 →有限の情報処理能力では、現実の問題を解くのは難しい

 

強いAI, 弱いAI

汎化AI, 特化AI

ジョンサール

中国語の部屋

 

身体性・身体知

AIが現実世界における抽象概念を理解し、知識処理を行うために必要なこと

→身体性を通じた高レベルの身体知を獲得し、

→次に身体知を通じて言語の意味理解を促し、抽象概念・知識処理へいたる

※ロボット研究から生まれた概念だったような?人間は五感をはじめとしてセンサーだらけの自律体でいろいろな情報から複雑な関係性を学習できるですが、ロボットは限られたセンサーしかもたないですし

 

人工知能研究

抽象概念や知識理解に辿り着くための方針は3つある

 

Google 社・Facebook

→言語データによる RNN や映像データからの概念・知識理解を目指す

UC Berkeley

→実世界を対象に研究を進め,知識理解を目指す

DeepMind

→オンライン空間上でできることをターゲットにするして,知識理解を目指す

 

人工知能研究の変遷

パターン処理 -> 記号処理 -> 知識の蓄積

 

学習方法

表現学習

ローデータからコンピュータが自動的に事象を識別するための特徴量を学習する一連の技術

CNNがこれにあたるはず。特徴量学習とか言われているときもあるような

 

マルチタスク学習

いくつかの関連するタスクにおける学習の内容を共有する事によってそれぞれのタスクにおける予測精度を向上させる学習方法

 

多様体学習

非線形多様体上に分布しているようなデータ構造のデータを学習する一連の手法

勾配降下法

勾配情報を利用して重みを増加させるか減少させるかを決める。学習率がハイパーパラメータ。

逐次学習(オンライン学習)の場合は確率的勾配降下法(SGD)、ミニバッチ学習の場合はミニバッチ勾配降下法と呼ぶ。

 →オンライン学習とはひとつのサンプルだけを利用する手法

1. 重みとバイアスを初期化

2. データ(ミニバッチ)をネットワークに入力し出力を得る

3. ネットワークの出力と正解ラベルとの誤差を計算

4. 誤差を減らすように重み(バイアス)を修正

5. 最適な重みやバイアスになるまで繰り返す

 

バッチ学習:全データを用いて学習

      計算処理に時間がかかる

      最急降下法

オンライン学習:ひとつのサンプリングごとに学習

        収束するまで学習データを何週もする

        計算処理は早いが、ノイズやはずれ値の影響を受けやすい

        確率的勾配降下法(SGD)

ミニバッチ学習:折衷案で、よく用いられる

        幾つかのデータセットに分けて、それぞれの塊ごとに学習する

確率的勾配降下法 - Wikipedia

 

AdaBoost

機械学習⑤ アダブースト (AdaBoost) まとめ - Qiita

 

モメンタム

以前に適用した勾配の方向を現在のパラメータ更新にも影響させる

※坂を下っていくのが勾配降下法なら、坂を下る際の加速度を加味するイメージ

AdaGrad

モメンタムの欠点を解決したのがAdaGrad

すでに大きく更新されたパラメータほど更新量(学習率)を減らす

一度更新量が飽和した重みはもう更新されないという欠点がある

※一度大きな坂を下り、緩やかな坂を体験すると、次の坂に差し掛かっても降下できない

RMSprop

AdaGradの発展

指数移動平均を蓄積することによってAdaGradの問題を解決した

※上記、二度目の坂では最初の坂の勾配情報を無視して学習を進めることが可能

Adam

RMSpropの発展

 

Adadelta

RMSpropの発展

 次元のミスマッチを解消

 

RMSpropGraves 

手書き文字認識で使われる

深層学習の最適化アルゴリズム - Qiita

 

学習率

学習率が過度に大きいとコスト関数の高い局所的最適解から抜け出せなくなることがある

学習率が大きいと収束は速いがコスト関数の最終的な値が高い

学習率が小さいと収束は遅いが最終的にはより最適解に近いパラメータになるため,コスト関数は小さな値に収束する.

  

最小二乗法

モデルの予測値と実データの差が最小になるような係数パラメータを求める方法

符号を考えなくてよくなり計算がしやすくなる→二乗するから

はずれ値に弱い

 
ファインチューニング

既存のモデルの一部を利用して新たなモデルを解くために再学習する手法

学習済みモデルの最終出力層を付け替えるが、入力層に近い部分と出力層のパラメータも変更

例えば、犬と猫と人間を分類するモデルを柴犬とゴールデンレトリバーを分類するモデルに変更するなどのように学習済みモデルと比べて全く異なるモデルへと学習することができるようになる

転移学習とファインチューニングの違い|Zono|note

※事前学習との比較のときとは扱われ方が違うような? 本質的には同じようだが

 

転移学習

学習済みモデルの最終出力層だけを付け替えて、自分のデータを学習させ新しいモデルを作成するということで出力層のパラメータだけ変更する

例えば、犬と猫と人間を分類するモデルを犬と猫のデータで再学習させることで犬と猫を分類するモデルを作ることができる

 

蒸留

大きなNNなどの入出力をより小さなネットワークに学習させる技術

生徒モデルを単独で学習させるより過学習を緩和する効果がある

メリット:モデルの精度向上、訓練の効率化、敵対的攻撃(Adversarial Attack)に対する防御

 

SVMサポートベクターマシン

各クラスの最も近いデータの距離を最大化することで係数パラメータを得る方法

マージンの最大化がコンセプト

線形分離不可能なデータのマージンを最大化するためのスラック関数

非線形境界を得られるようにするためのカーネル法カーネル関数)

→データをあえて高次元に写像することで、その写像後の空間で線形分類できるようにする

カーネル法の計算量を大幅に削減するためのカーネルトリック

 

主成分分析

線形

次元削減

寄与率が各成分の重要度

主成分が各成分の意味

 

 ロジスティック回帰

シグモイド関数という関数をモデルの出力に用いる 

→数式上の表現は単純パーセプトロンとまったく同じになる

→線形分類しかできない

ニューラルネットワークの一種

→尤度関数が目的関数

→対数オッズと呼ばれる値を予測し、正規化して結果を確率として解釈

 

 

最尤推定

ある係数パラメータが与えられたときに,モデルが実データを予測する確率(尤度)を最大化するような係数パラメータを求める方法

 

残差

モデルによって出力された値と実際の測定値の誤差

残差を用いて係数パラメータを推定するアルゴリズムが最小二乗法と最尤推定

 

教師なし学習(大脳皮質の動きを模倣)

主成分分析(PCA)

独立成分分析

自己符号化器

クラスター分析

自己組織化マップ

 

教師あり学習(小脳の働きを模倣)

k近傍法

主成分分析(PCA)

 

強化学習

エージェントが環境に対して行動を行うと、報酬と状態が環境から返ってくる

報酬を最大化するように学習する

 

エージェント:行動を学習する

環境:エージェントが行動を加える対象

状態:環境が今どうなっているかをあらわす

 

時間がかかる

 

マルチエージェント応用

アルゴリズム:Q学習

DQNディープラーニングを使った強化学習

   行動価値関数の関数近似に畳み込みニューラルネットワークを用いた手法

モンテカルロ法

 

モンテカルロ法

ゲーム終盤でコンピュータがランダムに手をさし続けて終局させて勝率が高い選択肢を選ぶ

 

Mini-Max法

ゲームボードの戦略を立てるときに自分が指すときにスコアが最大に、相手が指すときにスコアが最小になるように戦略を立てる方法

 

αカット:スコアが最小のものを選ぶ過程=相手の選択肢を考える上ですでに選択したスコアよりも大きいノードが現れた時点でその先に繋がるノードの探索をやめてしまう

βカット:αカットの逆。自分の選択肢を考える上で不利になるものはその先まで探索しない

 

行動価値関数

ある状態である行動を行うことの「価値」を表す関数

強化学習では最適行動価値関数をとることを目指して学習を行う

→Q学習:試しに何度もやってデータ集めて、期待値に収束させる

DQN最適行動価値関数をニューラルネットを使った近似関数で求める

 

強化学習における工夫

Experience Replay:時系列で並んでいるinputデータを順々に使って学習を進めると、inputデータ間の時系列の特徴に影響を受けてしまうため、ランダムにデータを取り出して学習させる

Fixed Target Q-Network:正解データ(target)と見立てている部分の値は一つ前のθを使って計算しています。(θとする)しかし、1回の学習ごとに毎回θを更新すると、正解も毎回変わるため、どこに近づけたらいいのかわからない状態になります。そのため、θは、一定の期間ごとにθで更新するようにします。

報酬のclipping:

 

ロボット・ロボティクス

一連の動作の組み合わせと捕らえて学習(一気通貫学習)

強化学習による試行錯誤

 

アンサンブル学習

複数の学習器を組み合わせて予測する手法

これにより全体の汎化性能をあげることができる

 

スタッキング

アンサンブル学習の一つで、モデルを積み上げて性能を向上させる手法

Stacked generalization

複雑だが精度が高い

スタッキング(stacked generalization)の発想とやり方 - 具体例で学ぶ数学

 

バギング

アンサンブル学習の一つで、複数のモデルを別々に学習させ、各モデルの平均や多数決によって最終的な判断をする手法

ブートストラップを使う

ランダムフォレストとかが当てはまる

バギングの意味と、ブースティングとの違い - 具体例で学ぶ数学

並列処理ができるので時間をかけずにそこそこ精度の高いモデルを作る

 

ブースティング

バギングのように弱学習器を独立に作るのではなく、1つずつ順番に弱学習器を構成していく

その際、k 個目に作った弱学習器をもとに(弱点を補うように)k+1 個目の弱学習器を構成する

ブースティングの具体例としては、AdaBoost、XGBoost、LightGBM、CatBoost

直列処理なので、時間はかかるが高い精度が得られる

 

マルチタスク学習

同時に複数の識別問題に対応できるように学習する手法

最初から複数のドメインの課題を解くためのモデルを設定する

マルチタスクの深層学習では各課題の重み付き和が損失関数になる

 マルチタスク学習の成功にとって望ましい条件は、複数の課題間で共通する因子や有用な特徴、局所解をもっていること

 

マッピング

順序を持つ文字列のカテゴリーデータの場合、対応する数値を辞書型データで用意して数値に変換する手法

 

ワンホットエンコーディング

順序を持たない場合、各変数に対応したダミー変数を新たに作り出す

one-hot-encoding

 

 

欠損値がある場合の処理

リストワイズ法

→欠損のある行をすべて削除

ペアワイズ法

→欠損の少ない列を使用することにし、特定の行を取り出してから欠損を削除

回帰補完

→欠損しているある特徴量と相関が強い他の特徴量が存在している場合

平均補完

→平均値を入れる

 

ステップワイズ法

→欠損値処理ではない。「ステップワイズ法(逐次選択法)」は、統計ソフトが自動的に説明変数を1個ずつ入れたり出したりして、適合度の良いモデルを選択する方法

  

データセット

MNIST:手書き文字、アメリカの国立標準技術研究所

ImageNet:インターネットから集めて分類した画像、1400万枚、スタンフォード大学

CIFAR-10:物体カラー写真、初心者向けのチュートリアルなどで使用

Youtube-8M:動画のデータセット、800万本

VOC2012、MSCOCO:

 

学習済みモデル

【2019/4月更新】学習済みの様々なディープラーニング・モデルをメチャ簡単に利用できる! Model Asset Exchange(MAX)をご紹介します - Qiita

 

フレームワーク

設定ファイルを使う:Cafe, CNTK

→モデルの定義がテキストで設定でき,簡単に学習を開始させることが出来るというメリットがある.一方で,ループ構造をもつような RNN など,複雑なモデルを扱う際には,モデルの定義を記述することは難しくなる傾向にある

 

プログラム:TensorFlow, Chainer

→一度書き方を覚えてしまえば,複雑なモデルでも比較的簡単に記述することが出来るが,モデルは,それぞれのフレームワーク固有のソースコードで出来上がるため,モデルが使用しているソフトウェアに依存してしまうという問題がある

 

define-and-run:cafe

define-by-run:Chainer, py-torch, tensorflow, mxnet

 

イテレーション

重み更新の際に、重みが更新された回数

一回のイテレーションに用いるサンプル数はバッチサイズと呼ばれる

 

エポック

訓練データを繰り返し学習したときの、その回数

 

アルゴリズムあれこれ

NN

ニューラルネットワークの学習には損失関数(コスト関数)の最適化により行われる

ロジスティック回帰、単純パーセプトロン、多層パーセプトロン、がこれにあたる(畳み込んでない) 

 

損失関数

回帰問題→平均二乗誤差関数

分類問題→交差エントロピー誤差関数

※分類に使うランダムフォレストの不純度がエントロピーだったような

分布を直接学習→KL ダイバージェンス

 

損失関数、コスト関数、誤差関数の違い

損失関数=誤差関数

損失関数+正規化項=コスト関数

目的関数、コスト関数、誤差関数、損失関数いろいろあるけど、なにが違うのかを検討 - Qiita

 

CNNのコンセプト

CNNは人間の視覚野の神経細胞を模倣

単純型細胞(S細胞):画像の濃淡パターン(特徴)を検出

複雑型細胞(C細胞):物体の位置が変動しても同一の物体であるとみなす

→ネオコグニトロン(福島邦彦)

 

CNNとNNの違い

画像全体のうちある一定範囲ごとに演算を行い、その範囲ごとに特徴量を計算

はじめは単純な特徴を拾い上げ、より後の畳み込み層になると複雑で抽象的な特徴を拾う

これにより汎化性能が高まる

一定範囲ごとに読み込んでいるので特徴がどこにあっても検出できる(位置不変性、移動不変性)

※画像が回転すると検出が苦手で(回転不変性がない)、拡大縮小にも弱い

定番のConvolutional Neural Networkをゼロから理解する - DeepAge

学習に必要なパラメータが多い

計算量が多い

より複雑な関数を近似できる

結果の解釈や説明ができない(ブラックボックス) 

 

Global Average Pooling

ひとつの特徴マップにひとつのクラスを対応させる

CNNの手法の一つで全結合層を用いずにこれを使う

 

1980年代には誤差逆伝播学習が提案されていたが、多くの層を持った学習をすることはできなかった

→勾配消失問題

→層の数が多いとNNの学習の目的関数は多くの最小値を持ち、適切な結合の重みの初期値の設定が難しかった

 

勾配消失問題への対処法

いくつかあるが、、、

事前学習:勾配消失問題はモデルのパラメータの初期値に対して依存する。モデルを事前学習させることで安定した学習が可能となり、勾配消失問題を克服できると考えられる

ReLU関数を使う:微分値が0以上の場合はそのままの値、0以下の場合は0となる。
この性質により誤差逆伝播の際に、重みが小さくなるのを防ぐことができる

 

誤差逆伝播法のときに起こる問題

勾配消失問題:誤差がどんどん小さくなっていき学習が収束しない問題

勾配爆発問題:誤差が大きくなっていき学習が収束しない問題

 

活性化関数

tanh関数(双曲線正接関数)→ReLU関数のほうが勾配消失問題が起こりづらい

ReLU(Rectified Linear Unit)/ランプ関数/正規化線形関数

Maxout→複数の線形関係の中で最大値を利用

シグモイド関数

ステップ関数(Step function、単位ステップ関数:Unit step function)→微分値が常に0なのでほとんどのNNでは使用されない。単純パーセプトロンの出力層で用いられる

 

重み共有、局所的受容野

カプセルネットワークはニューラルネットワークを超えるか。 - Qiita

パラメータ数:全結合層>畳み込み層

重み共有によって有用な特徴量を画像の一によって大きく変化させない

 

DNN

CNNの層を深くしたものがDNN

学習するべきパラメータ数が膨大となるため、処理の高速化が必要

2012年に提案された分散並列技術であるDistBelif(googleが開発した深層分散学習のフレームワーク)やGPUが利用されてきた

 

内部共変量シフト

(DNNにおいて、)ある層の入力がそれより下層の学習が進むにつれて変化し、学習がとまってしまう

大規模なNNの学習が困難となる原因

→対策としてバッチ正規化(2015)がある

 出力値の分布の偏りを抑制する

 各層で出力を正規化することで、層が深くなっても入力の分布の変化が少なくなる

 

CNNによる画像処理

パディング:出力画像のサイズを調整するために元の画像の周りを固定の値で埋める

→ゼロで埋めるときはゼロパディングなど

プーリング:最大プーリング、平均プーリング、Lpプーリング(周りの値をp乗し、その標準偏差をとる)

 

ハイパーパラメータのチューニング

ベイズ最適化:過去の試験結果から次に行う範囲を確率分布を用いて計算する手法

 

リカレントニューラルネットワーク(RNN)

ネットワークの入力層のひとつ前に学習で用いた隠れ層(中間層)のジョウタイを与える回帰構造を兼ね備えている

前の単語や文の情報が引き継がれて、隠れ層で過去のデータを保持できるようになっている

時間軸に沿って深いネットワーク構造を持つため、勾配消失問題が起こりやすい

ネットワークにループ構造を持つため、中間層が一層であっても勾配消失問題が起きてしまう

→手書き文字認識に利用

http://ds9.jaist.ac.jp:8080/ResearchData/sub/99/kobayashi/node5.html

ElmanNet

JordanNetと並ぶ初期の有力なRNNの一種。

音声認識に利用

 

LSTMのゲート
LSTMには以下の3つのゲートがあり、ゲートの開け閉めによって信号の重み付け(全開1、全閉0、その中間)をしている。
・忘却ゲート
・入力ゲート
・出力ゲート  

 →ユルゲン・シュミットフーバーとケプラー大学のゼップ・ホフレイターの提案

→各ゲートでの情報の取捨選択はシグモイド曲線を使う

→RNNとの違いで最も目につくのはメモリセルと呼ばれる中間層の状態を保持するパラメータ。メモリセルは、いくつかの次元をもち、時刻経過とともに変化する性質 

機械翻訳や画像からのキャプション生成などに応用

 

BPTT

RNNのときの誤差逆伝播をこう呼ぶ

 

LDA(Latent Dirichlet Allocation)

トピックモデルの1種

文書がどのようなトピックから構成されているかを推論するモデル


推論するパラメータは以下

トピック分布:文書ごとのトピック構成比率
単語分布:トピックごとの単語比率

 

CNNとRNN

CNN:データに潜む空間的構造をモデル化する

RNN:時間的構造をモデル化する

 

GRU

ゲート付き回帰型ユニット

更新ゲートと忘却ゲート

LSTMに似ているが、小さなデータセットではより高い精度を示す

一方でLSTMのほうが強力である 

 

 音声処理

時系列データなのでリカレントニューラルネットワーク(RNN)が最適と考えられていたが、音声処理の分野ではオートエンコーダが非常に高い精度を記録している 

 

オートエンコーダ(Auto Encoder・自己符号化器)

三層NNにおいて、入力層と出力層に同じデータを用いる学習方法

入力データと一致するデータを出力することを目的とする教師なし学習

→積層オートエンコーダでは最後にロジスティック回帰層を足すことで供しあり学習になる

エンコーダ(特徴抽出機)とデコーダ(生成器)をもつ

ジェフリーヒントンが提唱

活性化関数に恒等写像を用いた場合の 3 層の自己符号化器は主成分分析(PCA)と同様の結果を返す

オートエンコーダを多層化するとDNNと同様に勾配消失問題が生じるため、複雑な内部表現を得ることが困難であったため、2006年にヒントンは単層の自己符号化器に分割し、入力層から繰り返し学習させる層ごとの貪欲法を積層自己符号化器に適用することで、汎用的なオートエンコーダーの利用を可能とした

 

オートエンコーダの利用例

次元削減に用いられる

ニューラルネットの事前学習

ノイズ除去

異常検知

クラスタリング

データ生成(VAE)

オートエンコーダ/自己符号化器 - MATLAB & Simulink

 

積層オートエンコーダ

オートエンコーダを積み重ね、最後にロジスティック回帰層を付加する

事前学習→ファインチューニングの工程がある

 

入力層に近い層から順番に学習させる(=事前学習)という逐次的な方法を取っている

最後にロジスティック回帰層を足して、全体で学習する(これをファインチューニングという)


ファインチューニング

既存のモデルの一部を利用して新たなモデルを解くために再学習する手法

ネットワーク全体への教師あり学習

 

学習済みモデルの最終出力層を付け替えるが、入力層に近い部分と出力層のパラメータも変更

例えば、犬と猫と人間を分類するモデルを柴犬とゴールデンレトリバーを分類するモデルに変更するなどのように学習済みモデルと比べて全く異なるモデルへと学習することができるようになる

転移学習とファインチューニングの違い|Zono|note

 

 「深層信念ネットワーク」(Deep Belief Network)

DNNの一種で教師なし学習

オートエンコーダに制限つきボルツマンマシンrestricted boltzmann machineを事前学習として利用

 

ディープラーニングによる表現の獲得の例として、インターネット上の動画から切り出した画像を入力し、猫の概念を生成したというGoogleの研究が有名

ディープラーニングは素性の再利用と抽象的な概念(あるいは不変量)の獲得が可能ことがわかる

 

VAE

変分自己符号化器 (VAE; variational autoencoder)

変分オートエンコーダ

平均や分散などを求める生成モデル

 

VAEはGANに比べて安定した学習ができ, Flowと異なり潜在変数を低次元に落とすことができるので扱いやすく解釈性が高い

一方で、生成画像がぼやけがちで、尤度の計算ができない

誤差逆伝搬でVAEを学習させることができないので、reparametrization trickを使用する

通常のオートエンコーダとの大きな違いは、入力データを圧縮して得られる特徴ベクトル(潜在変数)を確率変数として扱う部分

深層生成モデルを巡る旅(2): VAE - Qiita

 

生成モデル

データの特徴を抽出して学習し、実在しないデータを生成

変分オートエンコーダ

ボルツマンマシン

GAN

GANはより鮮明な画像の生成が可能

 

GAN

生成敵対ネットワーク

画像生成に用いられる

画像生成器→画像識別器をだますような画像を出力

画像識別器→画像生成器から出力された画像と本物の画像とを分類

ANは学習時に不安定になるケースが見られ、意味をなさない画像を生成したり、生成データの種類が偏るなどが課題

教師なし(ラベルなし)学習

 

DCGAN(Deap Convolutional GAN)

ランダムな数値の入力値をもとに画像生成を行う

GANとの違いは、GeneratorとDiscriminatorそれぞれのネットワークに全結合層ではなく、畳み込み層(と転置畳み込み層)を使用している点
GANの学習が安定しない問題に対して、Batch Normalization (バッチ正規化)の導入や、活性化関数にReLUだけでなくtanh, Leaky ReLUを使用している

 

自己組織化マップ(Self-Organizing Map: SOM)

フィンランドの研究者,T. Kohonenの発明したニューラルネットの一種である.SOM は教師なし学習を行う位相保存写像(topology preserving mapping) の一種である

 

確定的モデルと確率的モデル

f:id:herumo:20200702193209p:plain

https://jsai-deeplearning.github.io/support/20151031-index.pdf

確率的モデル :モデルの中に含まれる変数のうち、1つ以上が確率的に変動する確率変数であるモデル

確定的モデル:予測を行なうときのモデルの中の数式に含まれる変数が確率的な変動を示さないで、確定しているモデル

  

正則化

L1、L2正則化を用いた機械学習モデルは損失関数とパラメータの値の和を最小にするパラメータを学習する

パラメータの和を評価することでパラメータが大きくなるのを防ぐ

これによりモデルが過学習しないようにしている

汎化誤差を下げるために用いられることが多い

 正則化の種類と目的 L1正則化 L2正則化について | AVILEN AI Trend

 

LASSO
Least Absolute Shrinkage and Selection Operator。L1ノルムという制約条件を与える正則化手法。パラメータのスパース推定を行う。 

→ラッソ

→幾つかのパラメータを0(スパース)にする

→スパースであるとは、値のほとんどが0であること

→特定のデータの重みを0にする

→モデルに必要な情報を取捨選択してくれる 

→次元圧縮に使う(※過学習を防がないわけではないはず)

 

Ridge正則化
L2正則化項を使って説明変数の影響が大きくなり過ぎないようにする正則化。 

→スパースにはならず、パラメータの大きさに応じてゼロに近づける

→汎化された滑らかなモデルを得ることができる

→パラメータのノルムにペナルティを課す

過学習を防ぐ

→損失関数にパラメータの二乗ノルムを加えるとL2正則化になる

→荷重減衰:ニューラルネットの重みパラメータwに対して、|w|2が大きくなり過ぎないように制約を与える

→重要でないパラメータを0に近づける

RidgeとLasso | IT工房|AI入門とWeb開発

 

Elastic Net

LassoとEidgeの中間

  

重みの制約
ネットワークの自由度が高いと、過適合が起こりやすい
そこで、学習時に重みの自由度を制限する
これを正則化という

 

正規化

データに対して何らかの計算を行い、全てのデータが0~1の間の大きさにすること

 

バッチ正規化

一部の層の出力を正規化する

 

局所コントラスト正規化

減算正規化と除算正規化の処理

画像処理の分野においては前処理として行われる

 

白色化

各成分を互いに無相関にし、平均を 0、分散を 1 にする

 

グレースケール化

画像を白黒画像に変換

 

平滑化

細かいノイズの影響を除去

 

ヒストグラム平均

画素ごとの明るさをスケーリングする

 

標準化 

平均が0かつ分散を1にする

 

正規化に関する工夫

正規化(標準化)しても層を伝播することで崩れていくという課題に対しては重みの初期値を工夫するというアプローチがとられた

→初期値の最適値はわからない

→乱数にネットワークの大きさに合わせた適当な係数をかけることで、データの分布が崩れにくい初期値がいくつか考えられた

シグモイド関数に対してはXavierの初期値、ReLU関数に対してはHeの初期値がよい

  

単語

再現率

偽陽性(False positive, FP)を減らす

全ての陽性サンプルを母数として、実際に陽性であることを見抜けたサンプル数を分子にする

→検出率というと分かりやすい

疾病判定に使われる

 

適合率

偽陰性(False negative, FN)を減らす

陽性であると判断したサンプル数を母数として、実際に陽性であったサンプル数を分子にする

リコメンドシステムなどに使われる

 

F値

適合率と再現率の調和平均

 

MLP

多重パーセプトロン

非線形な分離が可能になった

Multilayer perceptron

 

非線形分離問題

単純なパーセプトロンで起こる

非線形になると分離できない←ミンスキーが指摘していた

多層にすることで解決

 

A/Bテスト

ウェブサイトのより良いデザインの識別などに用いられる手法

異なるデザインや機能を備えたAとBをランダムに顧客に試してもらいよりよいものを識別する

 

パターンマッチング

あるデータが、どのようなパターンに属しているか or 特定のパターンが出現するかを特定する手法

 

逆問題

出力から入力を推定する問題や、入出力の関係性を解き明かす問題

(対義語)順問題

 

よい表現

ディープラーニングは観測データの説明要因を捉え、人間の知識では気がつくことができない共通点を捉えることができる。これをよい表現という。

ディープラーニングの父」の一人、ヨシュア・ベンジオは良い表現に共通する世界に関する多くの一般的な事前知識として幾つかを提唱している(下記)

-滑らかさ

-複数の説明要因

-説明要因の階層的構造

-半教師あり学習

-タスク間の共通要因

-多様体

-自然なクラスタ

-時間的空間的一貫性
-スパース性(データの分布のまばらさ)
-要因の依存の単純性

ディープラーニングは赤字のものに着目している。これらの事前知識を適切に活用できるのであれば、表現学習は必ずしも層の多いニューラルネットワークの形をしていなくてもよい

 

Hadoop

分散技術を用いたアプリケーション

 

MapReduce

並列処理を行うためのプログラミングモデル

 

 

醜いアヒルの子の定理

認知できる全ての客観的な特徴に基づくと全ての対象は同程度に類似

特徴を選択しなければ表現の類似度に基づく分類は不可能である

 

ベイジアンネットワーク

http://www.msi.co.jp/userconf/2018/pdf/muc18_401_2_1.pdf

 

セマンティックウェブ

情報リソースに意味を付与することで、コンピュータで高度な意味処理を実現する

 

オントロジー

概念もしくは構成要素の体系化

語彙やその意味、それらの関係性を他の人と共有できるように、明確な約束事として定義しておくときに用いられるもの

 

ヘビーウェイトオントロジー

対象世界の知識をどのように記述すべきかを哲学的にしっかり考えて行うもの

-cycプロジェクト

 

ライトウェイトオントロジー

効率を重視し、とにかくコンピュータにデータを読み込ませてできる限り自動的に行うもの

-データマイニング、ウェブマイニング

 

協調ベースフィルタリング

購買履歴

 

内容ベースフィルタリング

アイテムの特徴

 

知識獲得のボトルネック

人間が持っている一般常識が膨大で、それらの知識を全て扱うことは極めて困難

コンピュータが知識を獲得することの難しさを知識獲得のボトルネックと呼ぶ

 

機械翻訳

1970:ルールベース機械翻訳

1990:統計的機械翻訳

2016:ニューラル機械翻訳

 

各国の政策

LAWS

AI殺傷平気 

いまだ現存しない

 

シロマAI原則

LAWSによる軍拡競争は避けるべきである

FLI(スティーブンホーキング、イーロンマスクも賛同者)が2017に発表

 

 

 

 

ツイッター拾い物

 

 

 

 

 

 

その他見つけたチートシート

試験本番用に見つけたのはこちらです。

 

3つも4つもあると検索の効率が悪くなりそうなので、自分用のチートシートを作るにあたっては参考にしませんでした。基本は最初にあげたものと、自分のもので済むようにするという方針でした。

 

ただ、本当にわからない+時間が余ったら調べてみようという選択肢として手元においておくと安心感がありますよね。

 

ディープラーニングG検定の知識まとめ! - Qiita

G検定 本番困りそうな所まとめ - Qiita

【AI入門・G検定】JDLA Deep Learning for GENERAL 2018#1 推薦図書キーワードまとめ - Qiita

G検定チートシート - Qiita

 

AI白書が見れるけどいいのか? 

https://www.ipa.go.jp/files/000082705.pdf

 

内閣府関係(ものすごい量)

https://www.kantei.go.jp/jp/singi/it2/kettei/pdf/20190607/siryou9.pdf

https://www.iais.or.jp/wp-content/uploads/2017/09/457d1fa6b6ed9714a5909e69ed36cf9f.pdf

 

いろいろあって有用そうなのですが、いかんせん細かくて見えない、、、

9. G検定①_AIの歴史_G検定のシラバスに沿ってAIの歴史をマインドマップにまとめてみました|weekly_business_mindmap|note

 

プログラミング未経験だとpythonの学習がなかなか定着しなかったけどskillupAIとudemyがよかった。【研究者・技術者・データサイエンティスト向け】

こんばんは、へるもです。

 

実はこのブログは当初はpytoneの勉強記録みたいなのを残そうと思って作った側面もあり、最初の記事はpythonについてでした。ただ、続かない、、、 

herumo.hatenablog.com

 

やってみて改めて実感したのですが、プログラミング未経験の管理人にとってpythonを学習するというのは「新たな言語を覚える」ということに近いです。語彙を勉強して、文法を覚えて、使用シーンを想定して文章を作って、応用できるようにして、、、多くのステップを踏まないといけません。

この2年間は勉強して諦めて、の繰り返しでした。

 

最近はやっとpythonが身についてきたと思います。プログラミング経験0の研究者の管理人がpythonの勉強方法についてつらつら書きたいと思います。

まだ使いこなせているわけではないので、こんな勉強方法を試した人がいるんだな、と気軽に読んでもらえれば幸いです。

 

 

やっと軌道にのった

いろいろと試す中で一番身に付いた、と感じたのはskillupAIという会社の入門講座でした。1時間くらいの動画が8個あり、基礎→numpy→pandas→matplotlilb→、というように、最低限必要な内容を少しずつ勉強していく内容になっています。

私が見たときはコロナ関係で4/30まで無料だったので、それで勉強しました。

 

 

よかった点①実際にモデルを使いながら手を動かす学習になっている

モチベーションという意味で一番よかったのはここです。

この学習動画ではタイタニック号の乗客の生死を分けたのは何か調べる、という最終的なoutputが明確でした。いわゆる多変量解析をpythonを使って行います。基礎文法であったとしても、勉強している内容が何の役に立つのかが想像しやすかったです。

加えて、自分でやりたいことに近かったのがよかったですね。これが終わればあんなことができる、こんなことができるという「自分にとってちょっとよい未来」を思い浮かべることができるのは勉強のインセンティブになりました。

 

ほかの動画で意外と多いのは、基礎構文を書いてこれはこういう意味で、というものをひたすら連ねていくものです。それを使って自分がどのように使うのかという場面を想像することが難しく、私は苦痛でした。

 

 

よかった点②講師がいい人っぽい

これは自分でも意外な点でした(笑)講師がすごく”いい人”っぽいんですよね。職場でも部活でも聞いたらにこやかに教えてくれる先輩っているじゃないですか。あんな感じです。

 

私は動画学習だけだったので講師の方とコミュニケーションをとる機会はありませんでした。その状況で講師の態度で勉強するしないを決めるなんて馬鹿なのか?と思う人がいたら全力で同意する(した)部分です。

 

ただ、無機質にカメラに喋りかけているようなものだったり、イラついているように見えたりしているものだと、なんか学習意欲がしぼんでいくのが分かりました。TOEIC対策の動画なのですが、こんな感じ。

https://www.youtube.com/watch?v=pmeV-dDoioc

 

やっぱり新しい知識に触れるというのは本能的に不安なことなのでしょうね。そんななかを突き進むにあたっては頼りにできると思わせてくれる講師だと、余計な心配をしなくてもよいというのは無視できないメリットなのかもしれません。

 

個人的にはvtuberとか、どこかでやとった美女あたりが講師になればもっと普及するのでは?と思います。(笑)動画学習なら台本をよめばいいだけですしね。

 

 

コスパはいいのか

費用は3~4万円のようです。金額的には何とかなるレベルですが、ちょっと高いです。

ただ、英会話学習でも例えばベルリッツだと3000~6000円/40分とかです。先ほど紹介した講座だと総学習時間が8時間くらいなので、学習時間に対する価格という意味ではそんなもんじゃないかなと思います。

だらだら勉強しないまま機会損失を増やすよりは動いてしまったほうがよいですし。

 

 

udemyもよい

ほかの選択肢だとudemyとかもありますね。

【1日で習得】技術者のためのPythonデータ分析  

一日で習得とありますが、これも8時間くらいです。初心者がやるともっと時間がかかります。

 

こちらは基礎文法を勉強していく色合いが強く、少し我慢が必要でした。しかし、pythonを使うための環境構築の講義もあり、基礎的な部分を押さえているのでこれはこれで全然よいと思います。

実際、評価も高いです。 

 

f:id:herumo:20200524101255p:plain

udemy公式サイトより

これだと1万円くらいでぐっとコスパがよくなります。

skillupAIの講座をお勧めする内容を書いておいてあれですが、第一歩はこれがよいのだろうな、と書いてて思いました。これで続かなかったらskillupAIのほうを選べばよいです。

 

udemyとskillupAIの講座で被る部分はたくさんありますが、そこは心配後無用です。一回やっただけで覚えるなんて不可能です。(笑)私はudemy→progate(後述)→skillupAIと勉強していきましたが、skillupAIはいい感じの復習になりました。

 

 

progateや本は?

正直、こちらについてはお勧めできません。

特にprogateの課題はお店の注文システムを作ろうというものでした。データサイエンティストを育成するという視点はまったくありません。

本もいくつか試してみたのですが、こちらも微妙でした。やっぱり自分で読む、より誰かに説明してもらう、というほうがエネルギーを使いません。より多くのエネルギーが必要な本媒体の勉強だと、詰まったときにあきらめる可能性が高いように思います。

 

 

現状

おぼろげながらに見えてきたので、ぐぐりながら少しずつ試しています。

とりあえず回帰分析はできるようになってきたというところです。

 

MI(マテリアルインフォマティクス)ではよい物性を出すための組成予測が肝になってきます。そこらへんがまだできていないので、今後調べていきたいです。

【レアジョブ】129時間勉強した体験談 意志が弱い人にはレアジョブが一番お勧め

こんばんは、へるもです。

 

 

仕事で必要になったのでオンライン英語学習サービス「レアジョブ」を2018年の冬から続けてきてきました。毎日1レッスンだったり、月に8日だったり、回数はさまざまですが、今は日常生活の一部になっています。

 

レアジョブでの勉強時間はおよそ130時間くらいです。1年くらい続けていたにしては少し少ないですかね。それでも、確実にブラッシュアップされているのを感じることができるのでやっててよかったなと思います。

 

友達と海外旅行をしたときに英語を喋れるのが自分だけだったのでちょっとリスペクトされたのが気分よかったです。まじで喋ってる、、、、みたいな(笑)

 

諸事情でストップしたのですが、いいきっかけなので、レアジョブの学習体験談(口コミレベルですが)を書いてみます。

 

 

1~2ヶ月で英語に対するストレスが急落する

感覚的には20~40時間に上達を感じる最初のポイントがあり、分からないことがあっても混乱することが減ってきました。

 

レアジョブを開始したときは、相手が何を言っているか分からないことが多く、あの単語はなんだっけと考えているうちに会話が途切れたりしました。そしてそれにあせり、どんどん平常心が保てなくなるということが多かったです。

たとえば外国人観光客に急に英語で話しかけられるとあせりますよね?そんな感じのあせりが最初はあったように感じます。

 

今考えるとなぜあんなにあせる気持ちがあったのかが分からないのですが、中国語やスペイン語で話しかけられてもあせらないであろうと考えると「中途半端に分かる」ことが原因なんだろうなと思います。

義務教育を経ていれば相手が疑問系で質問していることくらいはなんとなく分かりますし。

 

20~40時間を経ると、分からないものは分からないと、なかば諦めの心を持って冷静な気持ちで英会話を進めることができるようになりました。(笑)分からないことに慣れてくると、それにあせることがなくなるんですよね。

こうなると、自分が分かる語彙で会話をつなげるにはどうしたらよいんだろうという生産的な思考ができるようになり、会話を続けることができることが多くなったように思います。

個人的には、焦らなくなったというのが大きくて、これが自信にも繋がりました。自身というのは大げさかも知れませんが、うまくいかなくても「焦りはしなくなったし上達はしている」と思うと気が楽になりました。成功体験って重要ですね。

 

この焦り、そこからくる不安感は英語学習を避けてしまうレベルのストレスになり、学習の妨げになります。そのため、1ヶ月~2ヶ月続ければその不安感が取り払われる、ということは最初は強く意識するのが重要かなと思います。

不安感さえなければ、英語学習を続けることはそれほど難しくありません。そうなれば、毎日25min間おしゃべりするだけで、スキルを身につけることができ、旅行がより楽しくなったり、将来の職業への不安を少し取り払えるようになります。(例えば下記のように英会話能力と年収には相関があるといわれています。)

 

f:id:herumo:20200515081711p:plain

 

 

英会話に40時間以降は徐々に慣れていく

40時間くらいまではかなりのペースで改善したように思います。ただ、それ以降は急激な進歩ということはあまりなく、少しずつ英語になれていったとう印象です。

 

振り返って考えてみると40時間までの伸びというのは、これまで自分の中にあった学習の貯金を使っていたのだろうなと思います。ある程度の貯金を使い果たすと、次のレベルに達するにはまた経験値をつむ必要があり、その期間は成長が実感しにくいのでしょう。

 

 

意志の弱い人にはレアジョブが一番おすすめ

こう書いてみると英会話の取得というのはシビアな世界で、着実な積み上げがやはり必要です。聞いているだけで口から英語が、なんていう宣伝を聞きますがあんなん絶対嘘で、習得には多くの努力と時間が必要です。

 

オンライン英会話サービスをやって英会話能力が伸びた一番のポイントは、毎日触って習慣化することで習得に必要な時間を稼げたというところかもしれません。学習の時間はだいたい予約制なので、授業が終わった後に次の授業を予約してしまえば、次に英語を勉強しないといけないタイミングが自動的に決まります。

自分で予約をしているので自動というのはちょっと違うのですが、例えば独学で文法を勉強しようとするときに、1日の中でいつ勉強するか、という部分に自由度を持たせてしまうと、とたんにサボりだすのが目に見えています

風呂に入ったらやろう、いやご飯を食べてから、いや今日は夜が遅いから明日まとめてやったほうが効率がいいはず、、、そんな風に自分に言い訳をしながら結局勉強をしないというのは私はよくあることです。

 

 

skypeスマホにいれるんだ

その点、例えばレアジョブならskypeを使って勉強するということが選べます。これが凄くよくて、勉強する場合は時間になったらskypeで呼び出されます。(笑)まぁ呼び出されているわけではなくて、講師からのcallが入っているだけなのですが、相手からのアクションがあるというのは凄くよかったです。

 

昔はskypeを使うのがスタンダードだったのですが、DMMのように独自のプラットフォームを使うところも増えてきました。こうなると呼び出されるのでなくて、自分でレッスンルームに入る必要が出てきます。

 

こう考えると、同じオンライン英会話サービスでもDMMはマンツーマンの塾みたいで、skypeを使用できるレアジョブは家庭教師みたいです。自分から行くのではなく、家庭教師のように相手からアクションを取ってくれるというのは継続するという点で重要な要素だなと思いました。

 

レアジョブさんはskypeの使用を継続し続けてくれたらいいなと思います。この先生からのcallを入れてもらえるという点で、意志が弱い方にはレアジョブが一番お勧めできるものとなっています

 

 

 レアジョブについての過去の記事です。

herumo.hatenablog.com

herumo.hatenablog.com

herumo.hatenablog.com

  

python エラー対処の覚書 

自分用のメモです。

 

あるオンラインテキストでpandasを使った処理をしたら下記のようなエラーがでた。

調べた感じ、pandasのバージョンが古いことが原因っぽい。

No module named 'pandas.core.internals.managers'; 'pandas.core.internals' is not a package

 

 

PCに入っているpandasのバージョンを調べてみる(下)と0.23で、新しいものは1.0も出ているらしい。

いきなり1.0までupdateして不具合が出るのも嫌なので0.25をupdateすることに。

print(pd.__version__)
pd.show_versions() 

 

cmdでコマンドプロンプトを呼び出して>"pip install pandas==0.25"と打ち込んで少し待ったらインストール完了。古い0.23はアンインストールされたっぽい。

jupyter notebookが機能しなくなったので若干あせったが、再起動したら特に問題なく動くようになり、上のエラーもでなくなった。

 

めでたしめでたし

 

GWは漫画を読もう。電子書籍がまさかの実質70%offも!? bookwalkerのセール情報(~2020/5/7)

まさかの実質70%off!? セール情報(~2020/5/7)

bookwalkerでとてもお得なセールが告知されていたので、情報シェアです。

他の記事にもいくつか書いていたのですが、ぺたぺた貼るのが面倒になってきたので記事にしました(笑)

f:id:herumo:20200503065422p:plain

 bookwalker公式サイトより

 ちなみに5月7日までbook walkerでコイン40%還元セールが行われており、一部はなんと半額というとてもお得なセールが行われています。

 

つまり、漫画は200円弱で購入できるという、、、book walkerは購入後に15分後でコインが還元されるので1巻を購入したコインで2巻を買うことが出来るという素晴らしい制度を誇っています。

ヤフーとかメルカリとかで1ヵ月後にポイントが還元されて、だけど何を買おうと困ることが多いのですが、bookwalkerは余すことなく使えるんですよね。

 

漫画 幼女戦記(1)

漫画 幼女戦記(一覧)

漫画 幼女戦記食堂(1)

小説 幼女戦記(1)

小説 幼女戦記(一覧)

 

あと、幼女戦記はあまり関係ないですが、 管理人のお勧めをちょっとだけ紹介しておきます。

漫画 異世界おじさん(1)

漫画 ひなまつり(一覧)

漫画 ガンスリンガーガール(一覧)

漫画 ロード・エルメロイⅡ世の事件簿(一覧)

漫画 ダンジョン飯(一覧)

漫画 乙嫁がたり(一覧)

 

f:id:herumo:20200425173707p:plain

bookwalker公式サイトより

この中だと、半額+コイン45%還元に当てはまるのは幼女戦記食堂」「異世界おじさん」「ガンスリンガーガール」「ロード・エルメロイⅡ世の事件簿」ですかね。

 

ガンスリンガーガールはそこそこ古い作品なのですが、ランキングの上のほうにあるのがうれしい。きっと大人がこのタイミングで大人買いしているんだろうな。

 

あと、異世界おじさんは今伸び盛りな作品で最新刊が凄い売れたらしいです。その内アニメ化するんじゃないかなぁ。セガが出てきたり、35歳のおじさんがギャップに驚いたりする部分は30代陰キャの共感を絶対に得れると思うので、これも読んでほしい作品ですね。(笑)

 

どれも面白い作品なので、コロナで暇な方は是非どうぞ。

漫画「幼女戦記」18巻 感想 【朗報】ドレイク大佐 超かっこいい【朗報】ターニャとヴィーシャの結婚式開催

こんばんは、へるもです。

 

幼女戦記18巻の感想です。

ネタバレを含むのでご注意ください。

 

 

表紙

f:id:herumo:20200425061902p:plain

幼女戦記18巻より

おー表紙にヴィーシャがいる!扱いもでかい!

 

管理人は漫画の表紙が好きなので、ついつい変化を追ってしまいます。

最初はターニャしか登場していなかったのですが(9巻のメアリー除く)、どんどん中隊長が出てくるようになりましたね。

 

f:id:herumo:20200425063027p:plain

f:id:herumo:20200425062913p:plain

f:id:herumo:20200425062952p:plain

f:id:herumo:20200425063601p:plain

幼女戦記15-18巻より

こうやって見比べてみると一目瞭然。特にヴィーシャは徐々に占有面積が大きくなってきているのが解ります。

 

ターニャしかいなかった表紙に色々な仲間が入ってくるというのは物語とのリンクを感じて良き。

ターニャ、というか中身のおじさんは前世を含めて友達いなさそうでしたが、今は同じ釜の飯を食べる仲間がたくさんいるぜ!

 

 

百合百合しい

ターニャだけだと寂しいなぁと思っていたので、表紙の変化は毎回楽しみにしていたのですが、まさか幼女戦記の表紙がこんなに百合百合しいものになるとわ、、、

二人の格好からなんとなくウスイホンを思い出してしまって、作者攻めてるな!と驚いしてまいました。

皆さんはどうでしょうか?ヴィーシャが慈愛の笑みを浮かべているので下品ではまったくないのです。

が、表紙にこんなに直球を持ってくるとはと思ってしまうのは、心が汚れてしまったからでしょうか。

 

というか、これ何しているポーズなんですか?(笑)

最初は”くっついて光っている”画の意味が解らず、光っている部分を拡大して何が光っているのか確認してしまいました。光っているのは宝珠ですね。

が、なぜ光っているんだ、、、

 

 

衝撃と畏怖

綺麗に決まった衝撃と畏怖作戦。地下に穴を掘って野戦軍を殲滅するなんて恐ろしいことを考えるものです。

ちなみに付録にもあったパッシェンデールの戦いですが、史実ではドイツ軍1万人が消し飛びました。

夕張市の市民が7000人くらいらしいですが、都市ひとつ分の人間が一瞬で死んでしまうというのは想像しにくいですね。

 

f:id:herumo:20200425110831p:plain

幼女戦記18巻より

本作戦はライヒの集大成だけあってターニャが出会ってきた仲間たちが多く描かれていました。技術将校→ラインの古参→参謀→海軍、かな。

ラインの古参はショーンズでしたっけ?ぶち抜きのコマがかっこよかったですね。

 

f:id:herumo:20200425110016p:plain

 幼女戦記15-18巻より

戦いは優勢に進みますが、、、あかん。それはフラグや。

「やったか、、、?」くらいの戦争は終わらないフラグや。(絶望)

 

 

ターニャの戦い

f:id:herumo:20200425111912p:plain

 幼女戦記15-18巻より

ターニャの参加した戦いが並べられたこの演出が凄い好きです。

RPGとかで最終決戦前に仲間と会話できるイベントがあったりしますが、それと同じような雰囲気を感じます。

管理人は最終到達地点の少し前で、思い出話をしたり、改めて出会った頃からの変化を楽しんだり、といったシーンが大好物です。

 

過ぎ去った時代は終わったものとして扱われてしまいますが、それでも過去があるから現在と未来があるわけです。

たとえば運が悪ければターニャの物語はノルデン沖遭遇戦で終わっていたかもしれません。

 

でも、そうはならなかったから”物語”は連綿とつむがれ、最終決戦にまで繋がりました。

あるいは誰かの”物語”はターニャに踏みにじられて終わってしまいました。

そういった郷愁を少ない言葉で雄弁に語ってくれる演出だったと思います。

 

特に原作を読んでいる派は、同じストーリーを淡々と描かれてもなかなか物語に入っていけません。

こうした演出の巧は漫画版幼女戦記のよさの一つですよね。

 

 

ドレイク大佐かっけぇええ

原作ではドレイク中佐(大佐の甥かな?)と戦うシーンで、あまり激しいシーンではありませんが、漫画版では相変わらず大幅に補完(改変)してきました。

このシーンがまたカッコいいんですよねぇ。

たくさんのおっさんが出てくる幼女戦記ですが、管理人的イケおじNo.1はドレイク大佐になりました

 

戦闘当初はひたすら蹂躙される「幼女強い」展開の焼き増しで、ぶっちゃけ読み飛ばしていました。

強いていうならグランツがヴィーシャをかばったところで「お?逆じゃないのか?」と思ったところくらいにしか気を払っていませんでした。

 

が、各個撃破になってからはまじで無双!!

接近戦は苦手なはずの装備なのに、ノイマンもケーニッヒも接近戦で撃破してしまいます。

ケーニッヒは装備的に魔道刃(=接近戦)が得意そうなのに、彼からすると赤子も同然の扱いです。

 

 

ターニャの上位互換

f:id:herumo:20200425120519p:plain

 幼女戦記18巻より とんで火にいる夏の虫(ヴァイス)

加えて、彼が凄いのは個人技だけではなく、ちゃんと集団戦のリーダーとして機能しているところ。

それが解るのがヴァイスとの戦いです。

彼を撃破するに当たって立てた作戦は「吊り野伏せ」、つまり誘引と撃破です。

 

自らを囮にヴァイスを釣りだし、自らの部隊に狙撃させました。

これはターニャ大隊の中隊長と戦いながら、「ターニャたちを抑える」+「狙撃部隊に用意させる」+「敵を狙撃部隊のキルゾーンに誘い出す」の3段階を楽々と行ったということですね。

まじで凄くね??

 

 

慢心のないおっさんは強い

f:id:herumo:20200425115856p:plain

 幼女戦記18巻より

デコイや速力、高度、乱数回避起動、現世仕込の突飛な発想などで圧倒的な戦力と戦術で敵に”対応”を押し付け、処理能力に負荷をかけるのがターニャたちのこれまでの戦いでした。

が、今回はドレイク佐一人にお株を奪われた形です。
強い!!

 

自分を山賊や海賊に例えているのは慢心していない感じでとても良いですね。

 

 

エースの戦い

中隊長でも歯が立たず、期待のルーキーグランツ君もあっさりやられる実力者が敵に回ったということは、ターニャの出番です。

この戦いは何気にアルビオンライヒの最強の個がぶつかり合っている戦いかもしれませんね。

少年漫画的で熱い展開です。

 

f:id:herumo:20200425160959p:plain

 幼女戦記18巻より

展開のほうも短いながら納得の出来。

スピード感があって凄く良かったです。

 

直線的な物量攻撃を仕掛けるのがターニャなら、放物線上の起動で相手を絡めとるのがドレイクです。

戦い方に違いがワールドトリガーでいえば出水 vs. 那須さん的な感じです。どっちもこぇ~

ここは是非アニメーションで見たいなぁ。

 

f:id:herumo:20200425161238p:plain

 幼女戦記18巻より

ってかこのおっさんやっぱり強い。

 

腕をぶった切られても、ロケットパンチ魔道師の防殻をやすやすと抜いていきます。

97式も破壊され、近接戦闘でも圧倒され、ガチのマジの追い詰められ方

 

ドレイク vs.ターニャの戦いは趨勢が決しました。

ただし、これはタイマンじゃないんですよ。

なんといっても、、、

 

 

バディ

f:id:herumo:20200425161607p:plain

幼女戦記18巻より

ターニャにはバディがいるからね!

ピンチを救うのはもちろんヴィーシャです。

 

”最強の個”同士の戦いはアルビオンに軍配が上がったといえますが、ターニャにはヴィーシャがいます。彼女の援護により辛くもピンチを切り抜け、逆に敵を圧倒します。

 

 

戦いを決めるもの

なんでヴィーシャだけ戦いに割ってはいれるねん、と「この展開を書きたいがためだけのご都合展開」を疑ってしまいそうになりますが、管理人としてはヴィーシャの列機としての能力が高かった説を推したいです。

 

というのも、この戦いは明らかに異常です。

ジャンプ的な戦いならいざ知らず、本作品では”勝利を得るために”軍や大隊での連携をずっと書いてきましたし、何らかの連携をとってしかるべきなのにそれをしていません。

 

これはヴァイスやドレイクの副官(ドレイクの手下なのだからおそらく実力者)ですら付いていけないほど高度で複雑な戦闘で、援護に入りたくとも入れなかったのではないでしょうか。そう、ヴィーシャ以外は。

こう考えるとライン以来のコンビネーションが功を奏したというわけで、こういう展開はよいなぁと思うわけです。

  

 

二人だけの世界?

 戦いの後の二人の世界は凄かったですね。何を見せられているんだ(笑)

ターニャごと撃って動揺するヴィーシャをターニャが受け止める展開が3Pほど続きました。 

 

f:id:herumo:20200425165216p:plain

幼女戦記18巻より

このシーンはついったーでも言及されることが多く、原作からのいきなりの補完に驚き、歓喜する方も多かったようです。尊いってこういうときに使うんですね。(笑)

戦場での結婚式って面白い表現で、タイトルに使わせてもらいました。  

 

ただ水を差すようであれですが、こういう描写を重くしすぎるとあれかなって思う自分もいたりします。彼女たちは軍人ですので、そのイメージからは離れてほしくないというか。

その点で、幼女戦記は限界ぎりぎりまで攻めきった感がありますネ(笑)

 

 

19巻は? 

回転ドア作戦が終わって本巻は終了です。

2話で終了したことに驚愕です。本誌連載はどういう仕組みで回っているんだ?

 

今は原作3巻の半分くらいのはずなので、あと1~2冊で終わりそうだなぁ。

アニメ部分は原作の1~3巻のはずなので、その後の展開はどうなるのでしょうか。

 

 

ハイライト

話は特に繋がりませんが、好きなシーン、突っ込みたいシーンをぶった切りで紹介します。

 

出世ポニテ 

f:id:herumo:20200425092803p:plain

幼女戦記18巻より ちゃっかり隙間に存在するポニテさん

中隊長二人はまだ表紙に出てきたことがありません。カラーにはなっているのですが、配置は袖なんですよね。

なのに、、、ポニテロッテさんは表紙デビュー!!

ケーニッヒももう一人も頑張っているし中隊長なのに優遇されるのはポニテ!!やはり男ばかりの中での少数派の希少価値というのは強いのか。見た感じ小さくて若いので、ヴィーシャと同じ幼年学校組=giftedなのかもしれません。

にしても、体の凹凸がないのになんかエロイのは凄いな。

3月のライオンもそうですけど、女性作者の書く女キャラの体のひねり具合が好きです。

 

カード狂い?

f:id:herumo:20200425164353p:plain

f:id:herumo:20200425164806p:plain

幼女戦記18巻より どや顔ヴィーシャ

カードに強い副官。

「少しは手加減してやるように」→「故郷の畑を増やそうと思います」という会話は成立しているのでしょうか。(笑)

手加減して畑レベルなのか、勝ってうはうはで少し変になっているのか、、、

しかも字が凄いメルヘンで、一緒にいるのターニャですよね。。。君ら結婚後の計画も立てていたのかな?

 

 

対空砲

f:id:herumo:20200425111256p:plain

幼女戦記18巻より

 好き。

 

 

無双

f:id:herumo:20200425163951p:plain

 幼女戦記18巻より

95式発動。

皆思っただろう、、、最初から使えよ、と。(笑) 

 

 

カバーのあれが邪魔

f:id:herumo:20200425122521p:plain

 幼女戦記18巻より

大活躍の大佐殿ですが、惜しむらくは裏表紙の大佐殿の勇士が中途半端であるところ。

途中から幼女戦記のカバーを袖+表紙+背表紙+裏表紙の一前画で載せてくれるようになったんですが、それでも価格とか入れる部分が白抜きになっているんですよね。

これまではあまり気にしていませんでしたが、今回はこの白抜きが邪魔だなぁと思いました。

 

その昔、バーコードは本の美しさを乱すといって本にバーコードを印刷することに抵抗した人たちがいると聞いたことがあります。 そのときは利便性に勝るものなしと抵抗した人を馬鹿にする気持ちすらあったのですが、、、これは確かに邪魔です。

欠損がかえって価値になることはあるんでしょうけど、やっぱり完全性というのは重要ですね!

いやぁおっさん強かったなぁという余韻があったのですが、おっさんよりでかい白い空白で興が削がれた気分になってしまいました。

 

おそらく漫画史上ここまでかっこいいおっさんは30年に一度しか生まれません

貴重な姿がバーコードゾーン?なんかに毀損されるなんて文化の損失ですね。ということで原画も電子書籍のデータに入れてほしいなぁと思います。

ただ、そんなこと言っていたら帯入れてとか、どんどん作業が増えていくのでどこかに線を引かないといけないのはわかるんですがね。

 

 

(修正)

ドレイクとノイマンがあべこべになってました。指摘ありがとうございます。なんか違和感を感じてはいたんですよね。

 

 

セール情報(~5/7)

f:id:herumo:20200503065422p:plain

 bookwalker公式サイトより

 ちなみに5月7日までbook walkerでコイン40%還元セールが行われており、一部はなんと半額というとてもお得なセールが行われています。

 

つまり、漫画は200円弱で購入できるという、、、book walkerは購入後に15分後でコインが還元されるので1巻を購入したコインで2巻を買うことが出来るという素晴らしい制度を誇っています。

ヤフーとかメルカリとかで1ヵ月後にポイントが還元されて、だけど何を買おうと困ることが多いのですが、bookwalkerは余すことなく使えるんですよね。

 

漫画 幼女戦記(1)

漫画 幼女戦記(一覧)

漫画 幼女戦記食堂(1)

小説 幼女戦記(1)

小説 幼女戦記(一覧)

 

あと、幼女戦記はあまり関係ないですが、 管理人のお勧めをちょっとだけ紹介しておきます。

漫画 異世界おじさん(1)

漫画 ひなまつり(一覧)

漫画 ガンスリンガーガール(一覧)

漫画 ロード・エルメロイⅡ世の事件簿(一覧)

漫画 ダンジョン飯(一覧)

漫画 乙嫁がたり(一覧)

 

f:id:herumo:20200425173707p:plain

bookwalker公式サイトより

この中だと、半額+コイン45%還元に当てはまるのは幼女戦記食堂」「異世界おじさん」「ガンスリンガーガール」「ロード・エルメロイⅡ世の事件簿」ですかね。

 

ガンスリンガーガールはそこそこ古い作品なのですが、ランキングの上のほうにあるのがうれしい。きっと大人がこのタイミングで大人買いしているんだろうな。

 

あと、異世界おじさんは今伸び盛りな作品で最新刊が凄い売れたらしいです。その内アニメ化するんじゃないかなぁ。セガが出てきたり、35歳のおじさんがギャップに驚いたりする部分は30代陰キャの共感を絶対に得れると思うので、これも読んでほしい作品ですね。(笑)

 

どれも面白い作品なので、コロナで暇な方は是非どうぞ。

 

herumo.hatenablog.com

herumo.hatenablog.com

 

【チー牛脱出①】「艦これ」で学ぶファッションの基本;YIAシルエットとは【ファッション初心者】

今回は、ファッションの基本のうち、Aライン、Yライン、Iラインについて触れたいと思う。

 

f:id:herumo:20200410064112p:plain

https://shop.menz-style.com/college/detail?id=1650

 Yライン、Aライン、Iラインというのは上のように、シルエットを整えると綺麗に見える、というファッションの法則だ。これを知っていると服を選ぶときの方針を決めやすいので便利な反面、実感がわきにくくとっつきにくいという問題がある。

この問題を解決するために艦これのかわいい絵を使って各ライン(シルエット)の違いを見ていこうと思う。

 

 

Iライン

Iラインはレーベちゃん! 

レーベマックスちゃんwww.pixiv.net

上も下もぴったりサイズの服を選ぶことで細身のシルエットを作るのがIラインだ。

このレーベたちは下に何も履いていないようにも見えるので、果たしてこれをIラインと呼んでいいのかどうかは疑問であるが、ともかく、無駄のないシルエットに一種の美しさを感じることができるのではないだろうか。シンプル イズ ベスト。これがIラインだ。

 

これを男性のファッションに取り入れるならば、ユニクロの黒いスキニーパンツ+HanesのビーフィTシャツ and/or 無印の白シャツというコーディネートがあげられる。ファッション初心者には一番お勧めできるスタイルと考えている。なんといってもサイズ選びが楽だからだ。ちょうどよいサイズを選ぶというのは難しいでしょ?と思った人には全力で同意するが、上を大きめに、下を細めに、というバランスをとるほうが案外難しく、滑稽になってしまうというリスクは見過ごせない。無難でそこそこ見栄えがするという意味ではIラインがとても良いのだ。特に春~夏。

herumo.hatenablog.com

herumo.hatenablog.com

 

 

Yライン

Yラインは五月とpoipoi!

上半身を大きめに、下半身を細めに整えるのがこのスタイル。

 

パーカー+ハーフパンツのバスケ部がかっこよく、かわいく見えたことがないだろうか。それがYラインというシルエットの効果だ。

ハーフパンツだけがYラインの象徴ではなく、普段着でも取り入れることができる。春や夏はスラックス+大き目のTシャツやパーカーを着るとだいたいこんな感じになる。冬ならコート+細身のパンツでYラインを調えることができる。

このシルエットのよさはなんといっても体型が隠せる部分。Iラインだと細身の人はいいが、おなかが出ている人は必然的にIラインにならないのだ。反面、上に大きめの服を着るとそれをごまかせるので、スタイルの悪さを隠せるという部分が非常に優秀だ。

隠す、ごまかす、という発想に抵抗を感じる人がいるかもしれないが、悪い部分を目立たなくするというのは有用なテクニックなのでぜひ試してみてほしい。女性の化粧とかヒールとかもある意味”ごまかす”テクニックだが、皆やってるしね。それくらい重要な考え方なのだと思う。

 

ビッグシルエット全盛の今、Yラインが一番作りやすいと思うが、反面でバランスを考えないと大やけどする初心者殺しのラインとも言える。

上の夕立は健康的だけど、それでもどうしてもエロく見えないだろうか?私はエロいと思う。Yラインを作ろうと上下の大きさのギャップを増やしていくと、あるところから女性的な要素が強調される

夕立は女性でかわいいからこのギャップが+に働くのだが、おっさんがやるとなんとも言えない気持ち悪さが生まれてしまう。上半身だけ鍛えて下半身のトレーニングをしない人をチキンレッグと馬鹿にするという話もあるが、これもYラインのアンバランスさが滑稽さに拍車をかけることが原因だと考えられる。

どの程度の上下のギャップがベストか、あるいは気持ち悪いように見えないか、というのは人によって違うという感覚的な面も大きく、慣れると簡単なのだが、服選びなんてやったことねーよ!って人には案外難しいと思う。

 

このようにYラインは心強い面もあるが、反面、初心者には恐ろしい部分がある。注意されたし。

 

 

 

Aライン

Aラインは三越ゴトランド!

足元までふわっと広がるのがAライン。

女性ならロングスカートで、男性ならワイドパンツで作れる。

 

管理人の印象では男性、特に初心者にはおすすめしない。ストリートファッションとかそうだけど、下がダボダボしていると”やんちゃな”、言葉を選ばなければ”下品”になりやすいからだ。

もちろん、シルエット自体が下品だといっているわけではない。例えば袴とかフォーマルドレスとかはAラインで綺麗な雰囲気を持っている。ただ、現代の装いで下を膨らませるには着崩すしかなく、それがカジュアルを通り過ぎた印象を与えてしまうのだ。

 

 ドレスを着た朝雲さん。絵もシルエットも綺麗でしょ?でも男がやるには難しいんだ。

 

 

Oライン

Oラインは時雨!

ビッグシルエットの到来と共に増えた新たなシルエット。上も下もゆったり大きめ。人によってはHシルエットと表現することもある。

この絵だとええやん!ってなるけど、これは時雨がかわいいからです。男性+低身長だとバランス感が非常にシビアなので注意されたし。反面、はまると非常に今風になるという印象がある。10代、20代なら試してもいいかもしれない。30代以降はやめたほうがよいかな、、、

 

 

チーズ牛丼だって

最近、チーズ牛丼という言葉が流行っている。

蔑称のように使われているが、特にネガティブな言葉が内包されているわけでもない。

そして、管理人もチーズ牛丼は好きなのでうまいこというもんだな、と感心している。

こう呼ばれることに対して身に覚えがある人が多いのではないだろうか。 

 

さて、よく※といわれるが、これは本当にそうなのだろうか

管理人はそれは必要十分条件を満たしていないと考えている。つまり、イケメンが何を着てもかっこいいのは真理だが、イケメンじゃない人だってあっている服を着たらそれなりになるのだ。

 

前置きが長くなってしまったが、本ブログでは、外見をかえることに興味がある外見が重要だと思っているけどなかなか手を出せない人向けの記事を少しずつ書いていこうかと思う。

 

 

ステップアップの考え方

人は色々な要素から構成されている。容姿、コミュ力、友人、生まれ、経済力、環境、才能、知性etcetc..

色々とある要素のそれぞれを地道にレベルアップしていけば、卑屈にならなくてもよい、自信を持てる、異性から好印象をもたれる、そういったことが可能なのではないだろうか。

 

管理人はそれができると思っている。

いわゆるヒエラルキーの底辺の人間だが、外見に気を使えば普通に彼女は作れるし、合コンでも女性からアプローチが来るようになった。(これは女性があせりだす年齢に差し掛かったというのも大きいが)

 

なんのことはない、知識と勇気が足りなかっただけだ。

 

そんなことは可能なのだろうかと疑っているあなたに説明するために、管理人がいかに底辺で(今もなお、かもしれない)素質に欠ける人材であるかということに紙面を割きたいが、うさんくさくなるので辞めておく。

 

もちろん努力さえすれば誰でも夕立(のような美少女)に懐かれたり、瑞鶴のような幼馴染ができたり、加賀さんと結婚できるわけではない。

ただ、努力を積んでちょっとかっこよくなった自分がいつの間にか”昔なりたいと思っていた自分””なれるものかとあきらめていた自分”にまで届いているということがあるのではないか。

他人のことをコントロールすることはできないが、自分のことは自分で変化させることができるはずなのだ。

  

自分より若い人が幸せになるために情報を出すのは割りと癪だ。

何しろ自分が学び始めた頃にはユニクロの服は全てがダボダボ、ブログなんてない、という状況だった。なんだかんだ長い時間と金銭をかけて培ったものなのだ。

しかし、オタク層には割りと仲間意識を持っている。そんな人たちがよりよい人生を歩む手助けになれば幸いである。

 

ファッション(外見)は人が人を判断する要因の中で非常に大きなもので嫌な経験をした人も多いと思う。しかし、よりよい自分を見つける、という意味でもっとも費用対効果が大きいのがファッションと髪形だ。何かを変えたい人はまじでやれ。コピペでいいから。インターネットは大きな手助けになってくれる。

 

herumo.hatenablog.com

 

【映画感想】「ザ・ファブル」 岡田準一よりチンピラを見てしまった

 

f:id:herumo:20200418172840p:plain

https://the-fable-movie.jp/

 おもしろかった。

原作のニュアンスを活かしつつ、実写に綺麗に落としこんだなと思う。超人的な能力を持つ殺し屋を実際の人間が演じるとチープになるのでは?と不安に思う部分もあったが、杞憂であった。ハリウッド的な派手さはないが、個々のアクションのクオリティは高く、画と動きに迫力があり、「ファブル」はやはり超人ということに納得できた

ヤクザと団子になる部分はどうにかならなかったのか、と思うが、、、(笑)

 

f:id:herumo:20200418173036p:plain

https://the-fable-movie.jp/special_movie.html

 主人公勢はあまり印象に残らなかったようにも思う。ポニーテールではまぁ顔が整っているなってくらいだった山本美月が髪を下ろすとめっちゃ美人!!ってなったくらい。

岡田準一の一番のシーンは救出シーンのジャッカルだな。あれはずるいわ。妹の突っ込みも素晴らしい。原作では定番のネタなので来るのは分かっていたのに、笑わずにはいられない。むしろ期待通りにちゃんと来たことに笑ってしまった。アクションは岡田準一がやったのだろうか?普通に全部凄かった。

絶対に殺してはいけない殺し屋という部分は「笑ってはいけない」を思い起こさせてなんかのネタになるのかなと思ったが、特にそんなことはなかった。ただ、誰かの救出劇の裏に死屍累々な状況だとなんかすっきりしないので、それを避けるギミックにはなっていたかな。

 

フクシソウタを始めとしたチンピラ勢が好き。フクシソウタ以外も皆良かったが、残念ながらフクシソウタしか名前を知らない。

皆ちゃんとチンピラしつつも、高級なヤクザと一山いくらなチンピラが別に表現されていた。チンピラ博覧会。正直ヤクザやチンピラというものと相対したことがないからよく分からないが、それっぽさが出てて良い。スターウォーズとかで異種族がいっぱい出てくるのが宇宙っぽくていい!ってなるやん?それと同じ感じ。衣装さん頑張った!

 

f:id:herumo:20200418173118p:plain

https://the-fable-movie.jp/special_movie.html

 海老原さんかっこよかったな~リアルヤクザは嫌いで唾棄すべきものと思う一方、こういう情と仁義を重んじる系のキャラはやはり魅力があるな。だからこそ最後が悲しい。

小島は面従腹背って感じにも見えたけど、徹頭徹尾そんなわけじゃなかったと思うんですよね。刑務所から出たんだから少しくらいの”やんちゃ”なら許されると思っていたのだろう。小島はある意味海老原に甘えていたのではないか。

しかし、刑務所に入っている間にヤクザのあり方が変わってしまって、それが理解できなかったし、一線を踏み越えてしまった。海老原はその性分を理解して止めよう止めようとしていた。兄に甘える弟と、弟の危うさを理解しつつ面倒を見る兄。お互いにある程度分かり合っていて、ほんの少し何かがずれていれば普通に暮らせたのではないかな。ただ、彼らはヤクザとしてしか振舞えず、会社員のやんちゃならクビで済んだかもしれないところが、死に繋がってしまった。やっていることは糞なので同情はできないがはみ出しものの哀愁だなぁ。原作になかったステーキ屋での最後の一幕はよい追加だなと思う。

「このすば」のAudibleはアニメ声優さんが朗読してくれるからおすすめ 声優さんに思いをはせる【通勤・通学に】

こんはんば、へるもです。

 

みなさんAudibleってご存知ですか?

半年くらい使っているのですが、凄くよかったのでその共有です。

半年といっても時々解約しているので実質は3ヶ月くらいの契約だったかなぁ?

 

 

Audibleって何?

Audibleとはアマゾンが提供する”聴く本”です。

 

小説を"見る”のではなく"聴く"ことができるのでスマホに音源を落として音楽のように楽しむことができます。

事前ダウンロードなしでも使えたはずですが、スマホの容量(30MBとか)を圧迫するわけでもないので管理人はダウンロードして聞いています。

 

 

ラノベの品揃えがそこそこいい

結構ラノベにも力を入れてくれていて、CMには釘宮理恵さんが起用されています。

 

「耳が幸せ!聴こうぜラノベ!」

 

というフレーズは釘宮ボイスも相まって非常に印象の強いメッセージになっています。

みんな聞こうぜ!(笑)

 

 

www.youtube.com

 

 

このすばは声優さんが朗読してくれる

さて、本題ですが、なんとこのすばは1巻部分はアクア役を務めた雨宮さん2巻はめぐみんの高橋さん3巻はダクネスの茅野さんが読み上げてくれます。

  

さすが”本人”だけあって、そのキャラは完璧です。(笑)

本人じゃないキャラは得手不得手があるようなのですが、それでも結構似ている役、あんまり似ていない役があったりして楽しい。

 

そして、美味しいのが例えば雨宮さんがめぐみんのセリフを読むと、アクアがめぐみんのもの真似を(全力で)しているかのように感じる部分でしょうか。

時々、アニメの中の声真似で声優さんが本気出すときあるじゃないですか。あれめっちゃ好きなんですよね。それをいろんなキャラで聞けるのが凄く楽しかったです。

 

 

あの人があのキャラを演じたら

あとは、ifを楽しめるというのも大きいです。

 

音声特典とかでオーディションの話がよく出てきて、それが印象に残っていました。

あのキャラをこう演じたからこの役を射止めた、とか、他にこんなキャラのオーディションも受けた、とか。

その時、別の声優さんが演じていたらどんな風になるのか、と思うんです。

 

もし雨宮さんがめぐみん役を射止めていたら、高橋さんがアクアを演じていたら、、、

似せているといってもやっぱり本人の個性がどうしても出るものなので、そういったifの”このすば”を楽しめるのがよかったなぁと思います。

こういうのって、なかなかないじゃないですか。凄い貴重な体験ができたな、と。

 

 

声優さんに思いをはせる

これまでは声優さんとキャラクターの関係性に焦点をあてていましたが、声優さんがそれぞれ単独で朗読しているだけあって、結構個性が出ています。

 

印象的なのは雨宮さんて真面目なんだろうな~と何となく思ってしまったところでしょうか。アニメのときと比べて全体的に抑制的なんですよね。

 

アニメのアクアはナチュラルハイなイメージがあったのですが、Audibleのアクアはアニメでハイテンションになっていたところも少し落ち着いた演技です。

きっと、セリフ間のナレーションとセリフの落差がないようにバランスをとったんだろうな、と。

 

このギャップが面白いですね。

私が雨宮さんを認知したのは「このすば」が初めてなので、ご本人は明るくハイテンションな性格をしているのかなと思っていました。

 

が、Audibleを聴いて思い描いたのは、前述のとおり真面目で抑制的な人格です。

基本は真面目だけど、特定の場で、特定のメンバーといるときだけははしゃげる人っているじゃないですか。そんな感じ。

きっとあのアニメであのメンバーだったからこそ、思いっきり自分のタガを外していったのではないかな、と。

全部妄想ですが。

 

反面、福島さんは強い。

 

www.youtube.com

 

福島さんが声をあてたAudibleがあることを、今回はじめて知ったのですが、上の動画を見てると、強固なアイデンティティを感じます。

アニメでもナレーション(っていうのか?)的な状況説明をしていたので、聴いている側も違和感が少ないというのも大きいかもしれませんが、アニメとの差異が少ないです。

 

普通、媒体が変わると、その媒体なりの形を目指そうとするものな気がしますが、聞いている側としてはあまりその意図は感じられませんでした。

ナチュラルにこのすばワールドにいた、っていうのかな。

 

雨宮さんが朗読劇を表現しようとしているのならば、福島さんはこのすばの世界感の構築を再現しようとしていたのではないでしょうか。

 

重ねて言うと全部妄想なのですが、媒体がかわったときの違いが現れるというのは意外ながら当たり前でもあって、面白いなと思いました。 

 

 

アニメと同じストーリーを聴いて意味あるの?

私は結構、聴いてよかったです。

通勤だったり、家事だったり、そういった”かったるい”ことを行う際に使うアクセルとして大きな役割を果たしてくれました。アクセルの町だけに。

 

実はAudibleの契約当初は一般文芸とか自己啓発本を中心に聞いていました。

聴き放題というわけではないですし、アニメを知っていて(それどころか原作も既読)内容が分かる物語を聴くのはちょっと、と思うのは当然の帰結だと思います。

 

ただ、使い始めてみると通勤や家事などを行う際のながら聴きするのに凄く具合がよかったです。

ながら聞きするものって大抵は「嫌なもの」にカテゴライズされるのですが、Audibleを使うことで「スタートするのにストレスを感じないもの」にすりかわりました。

これだけでちょっと嫌なものでもあまり抵抗感なく始めることができます。

事実、これを覚えてから管理人の部屋は綺麗になりました(笑)

 

 

 

アニメとのギャップがなくてよかった

あと、アニメとのギャップが合ったら嫌だなと思っていた部分もありましたね。

この点では”本家”が声を当ててくれているところの安心感は大きかったです。

 

ラノベの読み上げに声優さんが起用されるのはよくあることなのですが、”モノホン”が起用されている例はなかなかないですし、このすばは貴重だな。

 

 

既存のラノベとAudibleの補完関係 

Audibleの欠点は聞いていなくても物語が進行してしまうという点が一番です。

あ、と思ったらストーリーが先に行っていた少しイラつきながら適当に巻き戻すという作業が地味にストレスでした。

 

が、”大筋は知っている”作品だとでちょっとくらい聞き逃してもあまり気になりません。

何もないとそもそも家事をしない、知らない作品だとながら聞きで家事はできるけど時々いらつく、これに対して、知っているラノベだとながら聞きで家事はできて多少聴き飛ばしも許せる。 

知っている作品を聴きながら家事や通勤を行うという場合の、この絶妙なバランス感覚は凄くよいです。

 

 

Audibleのサービスとは?

AudibleはAmazonが提供するサービスで、基本は月額会員制です。

初回登録は30日間無料です。

登録するとコインというものがもらえるので、これを好きな作品と1冊と交換します。

そして、PCを使う場合はそのまま聴けますし、スマホならAudibleアプリを連携して聞くことができます。電子書籍と似たシステムですね。

 

 

返品システム利用の是非

このすばは1巻が上下に分かれているので1コインだと1巻分も楽しめないじゃん!と感じるのですが、これを解決してくれるのが「返品」というシステム(基本はPC操作で実施)です。

これを使うと今もっているものが聞けなくなるかわりに、コインが戻ってきて別のものと交換することができるのです。

 

この返品システムは、内容が思っていたのと違った、声があわなかった人向けとアナウンスされていますので、乱用は禁物です。サービス低下の元になってしまいます。

が、Audible導入初期は返品し放題、8~10回までは簡単にweb上で返品できるけどそれ以降は問い合わせメールを送る必要がある、という事情を鑑みるに、サービスを広げたいAmazonの思惑と流石に1500円で1コインだと使わないよ?という消費者の思惑のバランスをとるためのシステムなのかなと思っています。

 

 

特にこのページを読んでいる方は初めてAudibleを試す方だろうと思うので、むしろ、積極的に色々と聴いてみて、自分にとってよいものかどうか、ちゃんと体験するのは重要だと思います。

ラノベ作品はそこそこありますし、アニメの声優さんが声をあてているものいないもの、完全に一人の朗読劇、複数人で行う朗読劇、色々ありますので、まずは色々試すのがAmazonにとっても消費者にとってもwin-winになるはず。

 

 

 

無料体験の解除をお忘れなく

Audibleは30日間無料ですが、それを過ぎると自動更新されてしまいます。

月額1500円と不要不急の出費としてはちょっとお高いので、必要なければ忘れずに解約するようにしましょう。

 

人間は本質的に今の状況からの変化を嫌う(現状維持バイアスという)動物ですので、一度契約すると、解約するのにはちょっとした決意が必要です。

ただ、Audibleはハマる人は絶対にハマるので試してみてほしいコンテンツのひとつ。

リスクを単純に避けるだけでなく、人間の習性(解約忘れ)を理解したうえで、えいやっと利用してみてはいかがでしょうか。

解約も簡単ですし。

 

 

まとめ

「耳が幸せ!聴こうぜラノベ!」

このフレーズ好き。

コロナが蔓延する昨今、通勤・通学にというニーズはなかなかないかもしれませんが、家での筋トレにも使えるし割りといい感じです。

手も目も空いていないけど、耳はあいているという人がいたら是非どうぞ。

 この素晴らしい世界に祝福を!1(上)

 幼女戦記 1(上)

やはり俺の青春ラブコメは間違っている 1 

アニメも始めるガイルシリーズは1~14巻まで聴けるという屈指の品揃えです。復習ついでにいかがですか?

 

 

herumo.hatenablog.com

herumo.hatenablog.com

herumo.hatenablog.com

 

友人の車を運転するときに使える1日自動車保険を比較した

こんばんは、へるもです。

 

短期間(一日とか)のための車両保険について調べてみました。

  

なお、本記事は一般人が調べた内容なので、指針とする程度にしてください。

保険の内容は随時見直されるものであり、実際に私が調べている中でも「ブログで紹介されている保険料」と「保険会社が提示しているの保険料」が異なる場合が散見されました。

 

 

一日自動車保険って何?

f:id:herumo:20200405145648p:plain

https://www.zurich.co.jp/car/useful/guide/cc-get-insurance-short/

たいてい自動車保険というのは対象は自分の車だけです。

だけど、他人の車を運転したい時ってありますよね。

友人の車を借りたい、複数人で友人の車を運転する旅行がしたい、帰省時に両親の車を運転したい、などなど。

 

そんなときに一日だけ保険に入ることができるのが一日自動車保険です。

  

 

で、どこがいいの?

管理人が使用する際にぱっと比較した感じでは、「ちょいのり保険」が1日自動車保険の中では一番おすすめです。私もこれを使っています。

一番安くて、内容がよいように見えます。

 

他の選択肢として、ワンデーサポーター、1DAY保険がありますが、何がいいのか分かりませんでした。

以下、まとめていきます。

 

 

東京海上日動(ちょいのり保険)

プランの内容が手厚いと思ったのがこの保険で、以前もこれを使いました。 

 

他社のプランより安く、弁護士費用特約が付いたプランもあるというのが特徴です。

 

f:id:herumo:20200405143134p:plain

https://www.tokiomarine-nichido.co.jp/service/auto/ichinichi/hosho.html#anc01

 

○安い

○基本料金の半額で複数人設定が可能

○支払いはスマホ/コンビニ(セブンイレブンは×)に対応

○内容が手厚いプランを選べる(下記)

○弁護士費用特約つきプランあり

○スタンダードでも車両保険あり

他社のプランは最低800円/24hからスタートしますが、これは500円/24hが最安値です。

追加料金によるオプションの幅も広いのも特徴です。選択肢が多く取れるのはいいことですね。

 

例えば友人の車で旅行する際に、保険をいいものにして、少し友人に払ってもらうということもできるのではないでしょうか。

相手もそもそも車両保険料や車検料を払っているので横柄に要求するのは間違いですが、場合によってはwin-winになるケースもあるのではないかと思います。

  

弁護士費用特約はもらい事故だけ、ロードアシスタンスもバッテリー上がりへの対応についてあまり記載されていないので、ここを重視するのであれば事前に確認すべきでしょう。

 

なお、事前登録なしで申し込んだ場合、グレードの低い500円のものしか選べないので注意が必要です。

 

 

×具体的な内容が分かりにくい

上で少し触れましたが、ロードアシスタントがどこまでなのか、対人対物補償がどこまでなのか、なかなか見つけられませんでした。

対人対物補償についてはチャットボットが教えてくれました。

 

f:id:herumo:20200405144432p:plain

チャットボット画面より

具体的にどういったものなのかはファミリーマートのサイトが分かりやすかったので、紹介しておきます。

ちょいのり保険(1日500円からの自動車保険)|ファミリーマートの1日自動車保険(東京海上日動)

 

注意点

配偶者所有の車では使えないようです。まぁそりゃそうだよね、という感じはあります。

 

 

あいおいニッセイ同和損保(ワンデーサポーター)

内容は可もなく不可もなく、ですが、情報開示が非常に分かりやすいなと思いました。

こういう会社は好きです

上記のちょい乗りでいいとは思うのですが、多少内容があれでも自分の納得したものだけがほしいという人はこちら向けかな?

 

エコノミー;800円

ベーシック;1000円

ワイド  ;2500円

f:id:herumo:20200405142100p:plain

https://www.aioinissaydowa.co.jp/personal/product/other/pdf/oneday.pdf

f:id:herumo:20200405142019p:plain

https://www.aioinissaydowa.co.jp/personal/product/other/pdf/imp_exp.pdf

 

  

三井住友海上(1DAY保険)

正直、何のために存在しているのかよく分からないのがこれです。

コンビニでの登録できるのは案外うれしいですが、保険の内容は最低限といった印象です。

複数回契約、複数人契約で安くなるのですが、30円とかですし。

 

ロードサービスがバッテリー上がりに対応していないのがなんとも言えないがっかり間でした。

運転している間に起きたものしか対応してくれないようです。

 

f:id:herumo:20200405141728p:plain

https://www.ms-ins.com/pdf/personal/car/20200101_1day_jyuyojikou.pdf

f:id:herumo:20200405141908p:plain

https://www.ms-ins.com/pdf/personal/car/20200101_1day_jyuyojikou.pdf
f:id:herumo:20200405140934p:plain

 https://www.ms-ins.com/personal/car/oneday/plan.html

 

 

まとめ

いろいろとサービスがあって比較するのも面倒かなと思っていましたが、今のところちょいのり保険が最強な気がしています。

次は自動車保険の比較をするかなぁ。 

ラノベ「World End Economica」感想 投資を知らない人でも知っている人でも楽しめる熱いラノベ 

こんばんは、へるもです。

 

World end economica(ワールドエンド エコノミカ)ってどんな作品と思う人は多いと思います。私は下記のブログで見かけるまで知りませんでした。(紹介ページがどれだったか分からないのでトップページです)

頭の上にミカンをのせる

 

端的に言えば投資の話ですが、これがまたアツい。そして内容が濃い。

ラノベの”経済”と呼ばれる狼と香辛料の原作者である先生がシナリオを担当しており、内容はやはりお金の話が多いのですが、単にそれだけでなく、一種の冒険譚でありラノベであるので非常に読みやすいです。

 

新型コロナで投資を始めたいと思っている人はいるのではないでしょうか。そんなあなたでも、そうでない自宅待機で暇なラノベ読みでもおすすめできる作品です。

 

World end economica(ワールドエンド エコノミカ)の感想です。以下、ネタバレがあるのでご注意ください。 

f:id:herumo:20200328105048p:plain

https://spicy-tails.net/wee/

 

 

振り返って

これはどう終わるんだ!終盤の怒涛の展開でそう思わなかった人はいないのではないでしょうか。

 

いろんな人のほぼ全財産を扱うことで救えるかもしれないという期待目標を達成できないどころか損失すらありうるという不安

積極的な投資をしたことはないのですが、ハルをとりまく状況を想像するとぞっとしました

 

幕引きの引き金が虚偽のインサイダー情報というのがまたにくい。

プログラムを組んだあとはやたらとうまくいくので、そこに起承転結の"転"を持ってきて終わりかなと終わっていました。プログラムのミスをハルがノウハウで解決して、どこまでいってもやはり人間の力が必要なんだぜ!的な結論になるのかなと。

 

そんなことはなかった。悲しいくらいに。

 

 

ただ、突然後ろからぶん殴られた感じがあったかといえばそうではなく、ある種の爽快感があったのも事実です。一本とられた!的な。いや違うな、やはりそう来たか!かな。

投資の世界は思惑の読み合いだ(だからソフトの欠点は人間の思惑を読みきれないところだ)と繰り返し説明され、さらに大きいリターンには大きいリスクがつきものだということも説明されていました。

ハルの敗北(失敗と表現すべきか悩む)はあくまでこの範疇の出来事なんですよね。理不尽な暴力に敗れたのではなく、”思惑を読むべし”という不文律のルールの中でただ失敗したのです。ソフトが効率を出せない理由と同じ文脈で、ハルはリスクをとりすぎて失敗しました。

 

私たちはハルに同情してしまいますが、現実にこんな人がいても、ハイリターンに破滅はつき物でその前提の中で投資していたしなぁ、くらいの感想しか抱かないでしょう。

 

パソコンと能力さえあれば子供でも大金持ちになれる一方、1つの大きなミスが幾多の成功を帳消し、、、どころか赤く塗りつぶしてしまいます。投資の世界のダイナミックで壮絶な世界観と弱肉強食感というのは作者が一番描きたかったものではないでしょうか?

 

 

月の世界

月の世界という舞台設定は意外じゃありませんでしたか?

管理人の中には投資=お金=現実世界の図式がなんとなくあったので、いきなりファンタジーめいた要素が出てきて読み始めの数ページはちょっと混乱しました。(笑)

てっきり地球によく似た異世界か、ウォール街やロンドン、香港あたりの話になるのかと思ってましたよ。

 

 

地球という共通項

月面都市の「地球の歴史も踏まえているけど別世界面」という設定は絶妙です。

自分の世界と同じルールで動いているという認識をもてるというのは、こと経済を主題にする物語には必要な要素だなと思いました。

 

ラノベ世界の”経済”といわれる狼と香辛料も好きで見ていたのですが、中世くらいの価値観を持つ異世界を舞台にした話なんですよね。自分の見知った世界とは全く違う。

それがゆえに、どこか自分とは無縁の何かとして見てしまっていました。

 

その点、月面都市という世界観は管理人と作品の間に”地球”という共通項があり、それが自分と本作の距離をぐっと近づけてくれました。

たとえば地球野郎、月生まれ、というような言葉が飛び交っていましたが、こういう言葉ですら親近感を覚えてしまいます。関西人はオチを求める、東京もんは冷たい、みたいな出身地を使ったスラング?はよく使われますしね。(笑)

 

更に地球の話だという前提があることで、「空売り」とかちょっと難しい言葉も新聞で出てくるものと同じ意味を持っている部分がよかったです。

専門的な話なので、単語だけでも聞いたことのある言葉があると理解しやすかったですし、この世界のどこかでおきているプロフェッショナルの話の覗き見できたような、”玄人”だけが知っている話を聞けたような、そんなノンフィクション文学のような凄みも感じました。

 

違う観点で言うと、”地球の”経済を持ち込むことで、一定の縛りがかかっていました。その縛りとは、ストーリーの中で経済的に突飛なことをすると途端に陳腐な話になるということです。

おそらくこの話に興味を持つのは若年層より、ある程度経済的知識を備えた人間でしょう。そういった人間がそれはないな、と思うような発言、行動をしてしまえば、本質的にこの作品の価値は毀損してしまいます。

少なくとも私には変な突っ込みどころを感じさせない作品でした。現実で縛りながらテンションが上下する作品を作れるって凄い。その土壌がある金融の世界って凄い。

関わりたくないけど。

 

あと、蛇足かもしれませんが、重力が低い月面世界では鍛えれば忍者のように駆け回れる、という価値観が好きです。

大半の人は特に鍛えることもなく、またそれを目指すことも意識にないのですが、ハルは大きな夢を持って現実的な研鑽を積んだ結果、街中をびゅんびゅん駆け回ります。

それはまるでハルの生き方や在り方を象徴しているようで、投資の世界で成功した子供につけられるであろう”金の亡者”、”ませた幸運なガキ”みたいな負のレッテルを払拭し、本作品を生き生きとした冒険譚せしめてくれたように感じます

 

 

すべてを照らす光

主人公ハルが素晴らしいのは、生き生きとした夢を持つ普通の少年というところでしょうか。

スタートこそギークな小部屋に潜むオタク少年のような様相を呈していました。しかし、すぐに彼のイメージは修正されます。彼は良識と社交性を備え、女性にどきどきし、勉強家で大きな夢をもつ普通の少年です。(家出してしまうのは若気の至り、ということで。)

この属性の王道っぷりといったら!最近の少年漫画の主人公でもなかなかいません。

 

投資とか経済というともちろんお金が主要な題材になるのですが、お金というとどうしても生々しいストーリーに転げ落ちかねません実際、ハガナは買われた少女でした。(しかも、おそらくその中ではマシな部類)

さらにお金持ちになるぜ!が目標ってどうよ、という話もあります。ストーリーの輪郭が曖昧になりますし、ロマンも夢もありません。「さえかの」の主人公アキ君がコミケで一番の売り上げを目指す主人公ではなく、自分が見たいストーリーのギャルゲーを作りたかったから加藤は付いていったんだと思います。

 

この点、ハルは大きな夢を持っていました。主要テーマである”投資(お金)”は、この夢を達成するための手段としての立場を得ることで正当化され、これによりこの物語は一種の冒険譚になったのです。

付け加えるならばハルの夢は大きすぎる夢でした。それを達成するには投資しかない。ハルの投資への積極的な興味と行動は彼の夢をなすための必要十分条件を満たしています。おいおい、すごいぞ。

 

 

投資世界の主人公

物語におけるハルの役割について述べてきましたが、ハル自身もかっこいいやつです。

 

投資の世界って不思議な世界で、対処できない敵が見当たりません

戦争であれば敵が強かった、新兵器がでてきた、味方がヘマをした、みたいに敗北の理由を他者に求めることができるかもしれません。

が、投資は勝ち馬に乗るゲームで、失敗の要因の大部分って本人の判断ミスに占められていますよね。資金力の差さえあれ、みんな同じテーブルで戦っているんですから。

 

今回の幕は虚偽のインサイダー情報に踊らされてしまったことではありますが、一方でそれは誰にも強制されたことでもないですし、”雨模様”がそもそも何を指すかなんてバートンさんは言っていないです。相手の情報力に負けそうであれば、とりあえずスルーするなんて選択肢もあったはずです。少なくともハルはそれを選べました。

その結果、立ち退きに応じざるを得ない家族もいたはずですが、この話は投資の話で、しっかりと契約を結んでいます。彼は戦略的撤退ができたはずで、ハガナという強いパートナーもそれを推していました。しかし、彼は結局自分のミスが原因で全てを失ってしまいました。

 

こんな最後だったからこそハルの失敗したところをあげつらったような書きようになっていますが、彼の失敗を嗤う気持ちなんて1mmも1nmもありません。

投資の根幹も快楽も自らの判断にゆだねられており、他の職業よりその純度が高いことは間違いない。その責任を一手に引き受け、行動と選択を続けるハルのかっこよいことといったら!

 

あんまり触れませんが、バートンもすげーよい役柄だ。

強敵感がやばい。(語彙)

 

 

   

ハガナ

この記事は実は読んでからすぐに書き、感動をそのままに8割を形にし、それでも書き切れずに半年弱かかってやっと書ききることができました。

記事を完成させることができなかったのが原因がハガナです。

 

なぜ、書けなかったのか。悔しいですが認めましょう。

正直、彼女に舞台装置としての機能を見出す部分が大きく、ヒロインとしての彼女の魅力をうまく出力できなかったからです。

 

ハガナは好きなキャラです。

共犯者系ヒロイン。コードギアスのCCもそうでしたが、こういう頼もしいキャラが好きなので嬉しくなりました。めっちゃデレるし。かわいいし。

 

 

ただ、彼女の特性は彼女から生まれてきたキャラクターなのでしょうか。管理人はハガナの特性が、この世界を説明する上での、ハルとの対比を行う上での、特徴の集合体に感じてしまいました。

地球と月の関係性を示すために彼女は売られ、ハルの人の機微を理解する人間的投資アプローチを際立たせるために彼女はコミュニケーション能力が低く、投資世界のクオンツという役割を担うためにプログラミングと数学を駆使する。

彼女はまるで最大公約数です。他者の存在によってそのあり方が決まってしまった存在です。

 

最初はハガナの”数学的天才さ”が単なる小道具や属性にとどまらず、彼女のあり方全てを規定し、ひいては1巻で起きる物語の共通項になっており、それがが秀逸だなと思っていました。

無茶な値切りをするのも、素っ裸で風呂から出てくるのも、投資で活躍できるのも、そもそも月の世界に売られたのも、数学的素養、あるいは数学的素養に結びつく何か、に裏打ちされており、それこそが彼女の個性なのだ、と。

 

しかし、最後まで読みきり、こうまで整えられたものを見ると工学的に計算されつくした歯車を見ているようです。

 

ハガナに意思がないような書き様は偏見に満ちているのかもしれません。が、繰り返しになりますが、他者の中のハガナではなく、彼女の幸せの形を見てみたい。

  

 

ITの強さ

作中ではハガナが操るソフト(IT技術の一つ)が大活躍します。

これは現実でも起こっていることであり、人間が太刀打ちできない巨人となりつつあります。

管理人は研究開発職で、人間のノウハウにコンピュータは勝てないといわれてきた領域で仕事をしているのですが、最近は普通に駆逐されそうになってきました。

この作品を読んで改めて思ったIT技術の強さは以下の二つです。

 

①デジタル化されたデータは無限に蓄積され、それを自由に使えること

②コンピュータや数学という共通言語を使うことで他分野の天才たちが参入できること

 

現場の人だけが知っているノウハウってなんか職人凄い!って感じになりますが、結局は怠慢で生まれるんですよね。

知っているんなら全員で共有したほうがいいんですが、それをうまく言語化できないし、自分が見つけたコツを教えてしまうと自分の存在価値が減ってしまいます。(囚人のジレンマ)あとはその価値を知らないパターンもありますね。

 

共有化するには莫大なコストがかかるし、関係者の積極的な協力がえられるわけではありません。そんなことに時間を使うならもっと違う消費電気量を減らして生産コストダウン、のような分かりやすいテーマに時間を使おうというのが普通の流れです。

そういうわけで誰も積極的に共有化しようとしません。

(ちなみにこの共有化を超強力に推し進めたのがトヨタで、だからこそ自動車業界の盟主の一人になっています)

 

IT業界の人間は、ナチュラルにその逆を行きます。

特許に反対だし、技術をオープンソースで公開するし、

しかも恐ろしいことに、IT業界の人は数学に強い人が多く、数学に強い人ってだいたい凄い頭がいいんですよね、、、

 

本作品でもその様子が描かれます。

ハルが何年もかけて得た知識とノウハウをハガナとアフロの仲間たちはPC上に再現し、誰(ハガナ)でもそのノウハウを使えるような環境の構築を進めていきます。知識の元がハルのだったため、作中ではなんとなくハル>ハガナのソフトのような雰囲気を出していましたが、本当にそうでしょうか。

発展段階ではソフトがハルのような投資効率を出せないことがデメリットのように描かれており、それは実際ソフトの欠点でした。しかし、終わりを見て総括すると、ソフトの真骨頂は大勝ちはしないが、大負けもしない安定感でした。

”損は出さない”という鉄則に従えることができたのはハルでしょうか?ソフトでしょうか?1巻時点ではソフトですよね。

 

これは今、世界の研究所で起こりつつあることです。管理人はあと何年研究者として落ちぶれずにやっていけるのでしょうか、、、(笑)

 

 

まとめ

うーん非常に良くできた作品でした。こんなに感想を書いたのは久しぶりです。

ラノベの感想のうち幾つかは

 

World end economicaは3巻構成の作品です。

あと2巻はどうなるのか。楽しみですね。

 

ちなみに本作品はクラウドファンディグで2000万円を集めてアニメ化というこれまた凄い話もあります。

これはまた別の機会に述べたいと思います。管理人は当初から知っていましたが、見事に波に乗り遅れました、、、

【Mujilabo 2020 SS】 売り切れだったパーカーが補充されている模様。このまま脱ユニクロの受け皿になるのだろうか【メンズファッション】

こんばんは、へるもです。

雨にも負けず、風にも負けず、コロナにも負けず。

ムジラボ2020SWの製品はちょっとずつ販売が進んでいます。

2月発売のパーカーが即完売していたのですが、たまたまサイトを見ていたら復活しているのを見つけました。

 

無印良品週間が4月頭まで開催されているので、安めに購入できるチャンスでもあります。

ぜひ試してみてください。

 

 

裏綿毛 プルオーバーパーカー

f:id:herumo:20200323004059p:plain

https://www.muji.com/jp/ja/store/cmdty/detail/4550182793789

ムジラボは結構パーカーを得意にしており、毎シーズン飛ぶように売れているのですが、この製品はその中でもまじで即効売り切れていました。

 

管理人はたまたま購入できたのですが、発売後2週間もしないうちに、店頭はおろかwebsiteからも消えていました

レビュー記事を書こうとしたのですが、そもそも売ってないのに買いてもしょうがないなとあきらめた記憶があります。

 

それがいつの間にか復活しているようです。

残念ながらオンラインストアではアイボリーがなくなっているのですが、黒と紺はありますので、気になる人はチェックしてみてください。

オンラインストアにあるくらいだから、いつものパターンだと店頭にあるのでは?とも思います)

 

 

軽くて着やすい

この製品のいいところの一つ目は”軽い”ところです。

 

パーカーといえばフードの立ち上がりを強くし、隣にものがあることで顔が小さく見える→スタイルがよく見えることを狙ったものが多いです。

ユニクロはこれを綺麗に体現したパーカーを出しており、パーカーならユニクロでいいんじゃないと思っていました。

が、こういうパーカーって肉厚で着心地は案外重いんですよね。

それに対してこのパーカーは非常に肉薄で、着心地が軽いです。

 

電子機器じゃねーんだから軽さなんてそんな重要でない、と思う人は一度着てみてください。

軽いってやっぱり素敵。圧倒的に楽です。

 

加えて生地を軽くするために薄手な感じになっているのですが、それがためか裾がストント落ちてくれています。

分かりやすくデザインが凝っていますよというポイントがあると、その他のものをシンプルなもので固めても様になるのでよいです。

 

 

ちょうどよいビッグシルエット+ドロップショルダー

この製品のいいところの二つ目は”トレンドがうまく取り入れられている”ところです。

写真を見ると分かるとおり、肩の部分が落ちたドロップショルダー+身幅や腕の部分(なんていうんだ?)が太くなったリラックスシルエットをしています。

これは今のトレンドの主流になっており、ユニクロなどではなかなか手に入らない形になっています。

 

ビッグシルエットって綺麗目というよりアメカジに近い形になっているので敬遠する人も多いような気がします。

大きめダボダボっていうのはある意味品がないデザインです。

しかし、この製品は生地が非常に滑らかで、その印象の軽減に成功しています。むしろポケットなど余計な装飾を廃したことも手伝って、綺麗な印象さえ与えられます。

 

 

ユニクロの受け皿

やっぱりムジラボのいいところはユニクロユニクロUに比べてもトレンドをがっつり取り入れた形をしているところですよね。

ユニクロだけでオシャレ!むしろオシャレ!みたいな論調が受け入れられつつある昨今ではありますが、管理人はユニクロだけだとちょっと厳しいんじゃないのかなーと思っています。

 

というのも、ユニクロはどうしても万人受けするスタンダードなものをメインに作っているからです。

情報発信系のブログを見ているとどうしても最新のトレンドが世の中の主流に感じてしまうのですが、世の中の7~8割くらい(体感的に)の男性はあまりトレンドに興味がありません。

 

ユニクロは製造業的な服の作り方、つまり大量生産して安くコストを抑えるところに強みがあるわけです。

大量に作ったけどデザインが攻めすぎていて万人受けしない、という事態になってしまうと、在庫が積みあがるリスクがあるわけです。

そうなるとどうしてもトレンドを取り入れる量は”ちょっとだけ”になってしまいます。

 

その一方でおそらく小ロット生産と思われるムジラボは”遊び”のある形をしており、トレンドを取り入れたい人が試しやすい服になっています。

加えて、ノームコア→ビックシルエットというトレンドの移り変わりは、綺麗めからよりカジュアルな、ある意味やんちゃな方向にトレンドが向かっています。

やりすぎるとダボダボラッパーなアメカジになってしまうわけですが、無印良品は独特な品のよさをもっているため、うまくバランスが取れた製品が多いのも特徴です。

この傾向は一貫しており、だからこそお勧めできるポイントでありました。

herumo.hatenablog.com

 

ファッション初心者にはぜひ試してみてほしい服です。

 

 

コーディネート

春なのでシンプルにパーカー+パンツがいいですね。

薄手なので、秋になっても上に一枚増やせば対応できるのがうれしいところです。

 

ただ、パンツには気をつけたほうがいいところがあります。

従来の黒スキニーをはくと「上がでかいけど下は細すぎる」というアンバランスな見た目になってしまいます。

素直にテーパードパンツやスキニーではなくスリムタイプのパンツを着用するのがよいかなと思います。

 

 

天竺編み クルーネックドロップショルダーTシャツ

f:id:herumo:20200323013307p:plain

https://www.muji.com/jp/ja/store/cmdty/detail/4550182793949

もうひとつ紹介したいのがこちらのロンTです。

 

この商品は少しずつ形を変えながら毎シーズン出ています。

たっぷりとした生地を使い、最近のトレンドを取り入れたデザインをしているので一枚でも様になりやすいのがお気に入りポイントです。 

herumo.hatenablog.com

 

これもユニクロにはないよい形ですね。

なんか知らないんですけど、そこそこトレンドを取り入れた半そでTシャツがあっても、長袖Tシャツってあんまりないんですよね。

ユニクロでは見たことがありません。たぶん。むしろGUの方が得意かも。

 

価格が4000円と今のユニクロ無印より随分と高めに感じる価格では有りますが、それでも試してみてほしい一着です。

 

 

herumo.hatenablog.com

herumo.hatenablog.com

 

株が下がった今は投資のチャンスなのか?この十年はイージーゲームだったというけど本当なのだろうか?

こんばんは、へるもです。

 

突然ですが、リーマンショックのときに心に決めたことがあります。

それは次に株式市場が荒れたら投資に手を出してみようということ。

前々から興味があったのですが、自分には知識がないのは明らかだったので手をつけにくかったんですよね。

 

そして、今、ニュースでも連日報道されていますが、株価が下がっています。

だからといって飛びつこうとは思っていません。損したくないし

なんかネットではアベノミクス株式投資で利益を得るのは簡単だったという話をしていますが、本当なのでしょうか。個人的には上がったり下がったりしていたな、という印象です。

 

確認と勉強をするという意味で過去を振り返ってみたいなと思います。

 

 

日経平均

f:id:herumo:20200321053001p:plain

google検索画面より

これを見ると確かにイージーゲーム感はあるな、と思います。

ピークの2.5万円代で頭を打っている感じはしますが、2011年以降、全体的に右肩上がりです。

頭を打っているということはつまり売るタイミングは何度か訪れているということであり、2011年以降はいつ購入しても、基本的に損しないことになります。(最後のコロナショックをのぞく)

 

これは日本の会社の一部を集めて平均をとったものなので、個別に株を見るとどうなのでしょう。

 

 

素材系

日本に残された最後の砦は車産業ですが、その門番として存在感を示すのが化学系の会社です。

 

化学系はイージーとはいいがたい

三菱化学

f:id:herumo:20200319034022p:plain

google検索画面より

 

信越化学

f:id:herumo:20200319034110p:plain

google検索画面より

 

クラレ

f:id:herumo:20200319034249p:plain

google検索画面より

個人的なイメージで大きさの三菱、強さの信越、技術のクラレを選びました。

2018年以降、下降傾向にあるのが見て取れます。

これだけ見ると”ボーナスタイム”は2012年~2016年くらいであり、このときに買えた人だけが利益を出せそうな感じがします。

逆に言うとそれ以降は買っても短期的には利益を見込めないというか、損するだけという感じですね。

  

ちなみに、クラレは米国工場の火事で賠償が発生する(しそうだったかな?)というトピックスがあるので混ぜないほうが良かったかもしれません。

燃えた工場は樹脂工場の模様です。エバールもセプトンも、クラレの中ではかなり強い製品のイメージがあるので、早く復旧してほしいな、と日本人としては思います。

http://blog.knak.jp/2019/10/post-2297.html

 

 

二重苦の東レ

B to B企業の宿命を顕しているのが東レです。

東レ

f:id:herumo:20200319034912p:plain

google検索画面より

上の三社と比べても下げ幅がものすごいです。

2017→2018の利益が半分になってしまった炭素繊維事業なのですが、それに追い討ちするように2019の最後にはボーイングの絶不調が重なってしまいました。

 

f:id:herumo:20200319035132p:plain

https://leverage-investment.com/2019/08/23/toray-stockprice-down/

 

数日前からやばいといわれていたボーイング社がついに政府へ支援要請する状態に - 頭の上にミカンをのせる

 

炭素繊維は強くて軽いという特徴を生かして飛行機の部材として使われることが増えてきました。

そのトップランナー東レ(というか東レ以外は有象無象)なのですが、供給先であるボーイングがやらかしてしまったんですよね。

こうなると素材屋はつらいです。

 

ただ、東レは長い目で見ればあがるんじゃないの?という気がします。

ユニクロのエアリズムに使われている糸とかは超細いのですが、あれをユニクロのコスト要求と量にあわせて大量生産できるって超凄い。

 

っていうか技術者的には、ここが市場に評価されなかったらもう技術を見てくれることはないんだなという諦念すら持ってしまいます。

東レは「技術」も「技術をお金にかえる能力」も他の会社より高い印象を持っています。

繊維でお金を稼ぐのって非常に大変なので。

 

 

車系

電器、鉄、造船、繊維、インフラ、とあらゆる産業が死滅しつつある日本ですが、なお存在感を示すのが車業界です。

 

トヨタ

f:id:herumo:20200319082917p:plain

google検索画面より

 

日産

f:id:herumo:20200319082955p:plain

google検索画面より

 

ホンダ

f:id:herumo:20200319083301p:plain

google検索画面より

 

スズキ

f:id:herumo:20200319083354p:plain

google検索画面より

こちらも下がってしまっていますね。

車業界も”ボーナスタイム”は2012年~2016年くらい?

 

日産は途中までいい感じにあがっていたのですが、なだらかに下落しているのが少し笑えます。

海外に行くと日産とトヨタの車をよく見かけるのですが、トヨタ>>>日産>韓国、くらいのブランドイメージという印象です。安売りしてたんじゃないかなぁ。

  

 

情報

ソフトバンク

f:id:herumo:20200321060238p:plain

google検索画面より

 

楽天

f:id:herumo:20200321060308p:plain

google検索画面より

情報関連企業もやっぱり2018年近辺だと上がらないものですね。 

 

 

まとめ

・単純な株価上昇基調は2012~2017くらいまで

・下がったら戻るとしても2~3年かかる

・事故や取引先の不調でびっくりするくらい株価が下がる

・今は2013~2014年当時相当の価格になっている会社が多い

 

ここ数年は株を始めるのにいい環境というのは終わっていたんでしょう。

アベノミクスによる上昇基調がひと段落し、初心者が手を出すと火傷する環境だったように感じます。

やっぱり初動と速度が大事なんだなぁ。今回のコロナウイルスの対応に似ていますね。

 

 

今後の行動へ反映させると

一方で、やはりコロナと原油価格下落で株価が下がった今は一種のチャンスのようにも思えます。

みんなもそう思っているようで、楽天証券とかは申し込みが殺到して開設に時間がかかっているという話もあります。

 

とりあえず株式投資に興味があるので証券口座を開くというのが1st stepですね。

2nd step、つまりどう買っていくかについて検討してみます。

 

まず避けたいのは、当たり前ですが、損が出してしまうことです。(最悪、利益は出なくて良いです。)

損が出るパターンは2つ。

一度に大金を投じすぎて、株価が下がったあとに待てなくなる

・株価が買ったときより下がり続ける

 

これらを踏まえると①余剰資金で行うこと②プロに任せるという選択肢を持つこと③勉強すること、が大切ですね。

 

株価が上がっているからといって生活費を削って大金を投じると、株価が下がったときに「株価が復活するまで持つ」という選択肢がもてず、下がった株を現金化せざるを得ない状況になるというシナリオがありえます。

株価が上がりきった後は数年間は復活してない会社が多いです。

 

株価が買ったときより下がり続けるパターンは、、、こんなんどうしようもないわ!

株価が下がった今、次に起こるのは株価の上昇のはずなのですが(相対的には)、これまで過剰評価されていた場合は上がることはもちろんありません。むしろ下がるかも。

 

これを回避するためには運と情報が必要です。

運はコントロールできる因子ではないので、投資信託というプロに任せる商品を買うというのは有りだなと思うようになりました。

問題は投資信託金融商品)は良心的な世界ではないということでしょう。金融商品とかメリットのない手数料目当ての商品とか、詐欺の印象しかありません。 

 

結局のところ、勉強するしかないですね。

あるいは嗅覚を磨くといったほうが正しいかもしれません。知識がいくらあっても株価の予知はできませんが、あからさまな”美味しくない案件”を避ける手段はあるはずです。

auショップのSDカードのように、世の中の7割くらいは知識0の人を食い物にする商品であるはず、と思っています。

 

読み返してみるとなんてことのないことですが、自分なりにまとめることができてよかったな。

 

herumo.hatenablog.com