コンピュータの日記です

目次

2019-09-19 スパルタかます
2019-09-06 P30 買った
2019-08-29 Nintendo DSi
2019-08-22 SVG うねうね
2019-08-20 ひといき。
2019-08-13 プログラム合宿
2019-07-14 パスワードの管理方法(令和元年版)
2019-06-14 google photos その後
2019-06-12 Google drive バックアップと同期
2019-06-09 新マシンセットアップ中
2019-05-29 Alexa Wunderlist 連携
2019-05-20 Nexus7 (2012) 復活
2019-05-14 パソコンは買ったのだが…
2019-05-08 続:Minit
2019-05-04 Minit
2019-05-03 ServiceWorker と indexedDB
2019-04-26 Amazon Fire HD 10 購入
2019-04-19 micro:bit 買った
2019-04-17 新サーバー設定中
2019-03-29 村井純 誕生日(1955)
 …同じテーマのほかの記事
スパルタかます  2019-09-19 09:45:32  コンピュータ

▲目次へ ⇒この記事のURL

スパルタかます、をご存じだろうか。

知らない? では、「スパルタカス」ならどうか。


…いや、知らなくても何も問題ない。



スパルタカスは、アップルが創立20周年記念で発売した、特別仕様の Macintosh だ。


当時は、ノートパソコンは「持ち運べる」ようにするために、かなり無理をしていた。

デスクトップマシンとの性能差は明らか…ノートパソコンは「貧弱」だった。


一方で、液晶ディスプレイはまだ高価なもので、小さな筐体にすべてを詰め込む技術も高価だった。

つまり、ノートパソコンは高価な割に性能が低かったのだ。

(とはいえ、持ち運べるという特別な機能は、必要とする者には十分お金を払うに値した)



スパルタカスは、そんな時代にノートパソコンをベースとして作成された、デスクトップマシンだった。


不格好なブラウン管ディスプレイと、そのディスプレイを置ける「台」として使える大きなコンピューター筐体が当たり前の時代に、スマートな液晶ディスプレイと、板のように薄い本体を一体成型した、デザイン性の高いマシンだった。


このデザイン性の高さは、付属するボーズ製のサウンドシステムや、キーボードに付属する本革製のパームレストも含んだものだ。


つまりは、記念品だからと金に糸目をつけずに高級な素材を使用し、しかし肝心のコンピューターの性能は「1世代前のノートパソコン」(市販のノートをベースに設計しているうちに、世代が変わってしまった)で、値段の割に性能が低すぎるという問題を持っていた。



…と、それがスパルタカスなのだが、長々と話しておいて、「スパルタかます」とはそれほど関係がない。


スパルタかます」は、主に Apple 製品向けの周辺機器を作成していたサードパーティから発売になった、PowerBook (ノート型 Mac)向けの、「ノートを開いて立てておく台」だ。


スパルタカスは、ベースになったノートマシンから見れば、「ディスプレイを最大に開いて立てた状態」だった。

じゃぁ、そういう形で立てられる台があれば、似た使い方ができるだろう。


キーボード部分が垂直に近くなってしまうので、外付けキーボードを付けて使うことが想定されていた。

そうすることで、ノートパソコンのための貧弱なキーボードではなく、使いやすいキーボードを使える。



これ以前、ある時期の PowerBook は、「Dock」と言われる仕組みが使える機種があった。


ノートパソコンを持ち歩き、家に着いたら「Dock」を装着する。

すると、電源に接続して充電が開始されるだけでなく、ブラウン管ディスプレイと、外付けキーボード、マウス、イーサネットへの接続も行われる。


家にいるときはデスクトップのように使い、そのまま外出もできる。それが Dock の仕組みだった。



「スパルタかます」が発売されたころには、Dock 接続できる PowerBook はなかったように思う。

しかし、持ち運べるノートパソコンを、家ではデスクトップのように使いやすくしたい、という需要はあった。


スパルタカス、という当時話題性があった商品名をパロディ化し、キーボードを垂直に立てるという「厳しさ」を「スパルタ」と呼び、Apple が辞めてしまった Dock のコンセプトを取り戻そうとする。

そうした意欲作が「スパルタかます」だった。




翻って現代。


液晶は十分に安いものになり、デスクトップでも使用される。

回路製造技術は十分に進化したため、小さなマシンでも十分な性能を持つ。


むしろ、ノートマシンが標準で、デスクトップは「それ以上の性能を欲するもの」向けになりつつある。



しかし、ノートパソコンの弱点の一つが、ディスプレイ位置が低いことだ。

どうしてもデスクトップ用よりも小さく、低くなってしまい、使う人の姿勢が悪くなりがち。


そこで、ノートパソコンの下に取り付け、ディスプレイ位置を高くする「ノートパソコン台」という製品がある。


ノートパソコンの下に空間を作れるため、冷却効果を謳う製品も多い。

ディスプレイ位置をわずかに持ち上げつつも、キーボードが使えるようにしている製品と、外付けキーボードを使うのを前提に思い切ってディスプレイ位置を上げてしまう製品とがある。




さて、数か月前に僕もノートパソコンを購入した。

今時デスクトップよりこちらの方が安い、という理由もあるし、最初は「家の中で持ち歩けたら便利そう」と思っていた。


しかし、案外持ち歩かない。

僕は仕事以外ではあまりPCを使わないし、仕事は集中しないとできないので、家族のいるリビングで…はとても無理だった。



じゃぁ、仕事場で使いやすいように環境を固めてしまおう。

WiFi を使わず、イーサケーブルを挿す。この方が通信が速い。


ディスプレイが低い、とは思っていたが、キーボードが斜めなのはどうなのだろう? と躊躇していた。


妻が「欲しい」とノートパソコン台を購入したので、少し使わせてもらった。

悪くない。しかし、妻の使っているものは持ち運びやすいよう軽量な分、剛性が低くて打鍵すると揺れる。



そこで、Amazon のレビューで「重いから揺れない」と評判の台を購入した。

いや、この台、メーカーの宣伝文句では「軽量で持ち運びに便利」となっているのだけど、皆「重さがいい」と評価している。


実際、打鍵しても揺れなかった。いい製品だ。




しばらく使っていたのだが、台の都合で奥行きが少し必要になる。


実は、前のマシンのディスプレイがまだ机の上に載っていて、奥行きが確保できない。

じゃぁ、少しディスプレイを横にずらして…


横にずらしたらディスプレイ全体が見えるようになったので、ついでに HDMI で接続し、デュアルディスプレイにしてみる。


お、便利便利。画面も広くなって悪くない。



…と思っていたら、前の画面の方がディスプレイサイズが大きくて文字が読みやすいので、ついそちらの画面ばかり使ってしまう。

これが「横」にあるものだから、首が横ばかり向いていて肩がこる。


うーん、じゃぁ、いっそのことこちらをメインディスプレイに…


そうすると、ノートパソコンのキーボードは使えないので、前のマシンのキーボードを持ってきて外付けしよう。




そんなわけで、現在その環境でこの日記を書いている。


前のマシンのディスプレイ、前のマシンのキーボード。

でも、横に新しいノートパソコンが置いてあり、デュアルディスプレイ環境になっている。


(ちなみに、「メインディスプレイ」には、外付け側を指定している。

 こうしておいても、ノートマシンだけ持ち出すと、自然にノートがメインになるから大丈夫)



こうなると、ノートを持ち出すたびに、外付けキーボードとマウスと HDMI とイーサネットを抜き差しする、というのも面倒だ。

PowerBook の Dock のようなアイディアが今でも復活してくれればと思う。


(いや、そういう製品を作っているメーカーはちゃんとあるのだけど、やはり特別な製品になってしまって高価なことが多い)





余談


書いていて思い出したのだが、昔はブラウン管ディスプレイは「位置が高い」という批判があった。


本を読むときに、目の前に高く掲げては読まない。

机の上に置き、視線を落として読むのが自然だ。その位置にディスプレイがなくてはいけない。


…そういう主張で、ブラウン管を机に対して斜めに「落として」見やすくするパソコン机、というものが市販されていた


この主張からすると、現在のノートパソコンの位置は、自然で読みやすい位置のはずだ。


しかし、位置が低いとそれに合わせて頭を下げようとしてしまい、姿勢が悪くなる、というのが、パソコン台メーカーの主張だ。



まぁ、実際は「人による」と思う。

昔の読書家は、本と同じように低い方が読みやすいだろうが、高い位置のディスプレイに慣れた、デスクトップからパソコンを使ってきた人にはノートは低い。


各自使いやすい位置を模索すればいいと思うけど、今のノートパソコン台の「逆」が、ディスプレイを斜めに収納できるパソコン机なのだな、と思った。




▲目次へ ⇒この記事のURL

別年同日の日記

13年 顔文字が誕生した日(1982)

15年 山内溥 命日(2013)

17年 母の誕生日


申し訳ありませんが、現在意見投稿をできない状態にしています

P30 買った  2019-09-06 10:55:03  コンピュータ 歯車

▲目次へ ⇒この記事のURL

スマホを買い替えた。

Huawei P30。今まで P10 plus を使っていたが、2世代後の後継機だ。


1世代が1年なので、2年目の買い替えになる。

結構高いので3年くらい使いたいところなのだけど、消費税増税前の駆け込み需要というやつだ。




P10 の前は Honor6 を使っていた。Huawei の別ブランド機種。廉価版だ。


乗り換えで Honor9 の購入を検討していたら、なぜか廉価版よりも、上位機種の P10 の方が安かった。

そこで P10 に乗り換えた。



が、その直後に妻も乗り換えることにした。

妻は以前は Zenfone2 Laser。これが持ちやすいサイズだったので同じくらいの大きさの機種を…

と思ったのだが、ちょうど画面が急速に大きくなった時期で、同じサイズがなかった。


調べると、どうも P10 は小さい部類に入ったので、妻が P10 を使いたいという。

そこで、僕はさらに上位機種の P10 plus を購入して乗り換えた。



その後2年使ったわけだが、妻が言うには、やはり P10 は大きくて持ちづらいそうだ。

小柄な女性の手ではしっかり掴めず、たびたび落とした。


致命的なのは今年の初夏で、落とした際にメインガラスが割れてしまった。



12月になれば2年になるので乗り換え時かなぁ…と思っていたが、消費税導入前に買ってしまえ、となった。




妻の乗り換えが主目的になったので、まず妻の使う機種から調べる。

それなりの性能があり、今一番小さい機種は…


SHARP の AQUOS R2 compact 一択だった。ほかの選択肢はない。

サイズは小さいが、最近流行の「狭縁」画面なので、画面サイズは今までとほぼ変わらない。

(いや、縦長になったので、表記上のディスプレイサイズ…対角は長くなっている)



僕の方は、P30 pro / P30 / Zenfone6 で悩んだのだが、P30 で。

この3機種の中では、一番軽かったから。


P10 plus でも、性能をおごった代わりに少し重かった。

これより重くなるのは、性能が良くても使い勝手が悪くなる。

P30 なら、十分な性能で軽い。




妻は「落とす」ことへの恐怖から、今回はストラップを付けられるケースを購入した。

以前はストラップを付けられるケースというと手帳型などになってしまい、「小さくて持ちやすいもの」という目的から逸れてしまっていた。


しかし、今は需要があるのか、ストラップ穴付きのケースが増えた。


僕もストラップ穴付きケースで。

Honor6 の時から、イヤホン穴に差し込んでストラップ付けられるようにする器具を使っていたのだけど、イヤホン使えないと不便なこともやっぱあるのよ。


(一応 Bluetooth イヤホンは持っているのだけど、有線が使いたいときもある)




周辺の話ばかりではなく、P30 の話もしよう。

すでに発売から半年たった機種だけど、まだ購入を検討している人もいるかもしれない。

何かの参考になれば幸い。


とはいえ、「何の違和感もなく乗り換えた」というのが正直なところ。

性能は上がっているのだけど、使用感は P10 plus と同じだ。



それは、P10 plus が十分に洗練されていたということでもあるし、購入後もアップデートで最新の Android バージョンを使えていたことにもよる。


加えて、Google のバックアップ機能により、初期起動時にすでに、P10 plus とほぼ同じ環境を自動構築してくれた。


「ほぼ」というのは、アプリによってはデータが回復できないから。

いくつかのアプリでは設定やデータも引き継げたが、例えば LINE などは、手動でも乗り換えが大変なアプリであり、自動ではやってくれない。



とはいえ、昔に比べて機種乗り換えの障壁は確実に下がっている。

乗り換えを気に全く新しい環境を構築してやろう…というようなことがなくて、拍子抜けでもある。




P30 は有機 EL ディスプレイで、ドットが光る。


念のため書いておくと、一般的な液晶ディスプレイでは、画面全体が光っており、そのうち暗くしたいドットを、液晶が遮って暗く見せている。


この際、液晶の透過率というのは「一番透過率が高いところ」でも結構低く、画面を十分に明るく保つために、バックライトはかなり電力を食う。


有機 EL は、ドット自体が光るので「透過率」のような影響はなく、光らせたい明るさに光らせる電力だけで足りる。

さらに、光らないところのために全体を明るくする必要もない。


そのため、有機 EL ディスプレイの方が、全体に消費電力が低い。



とはいえ、画面全体を明るくしていれば、やはり電力を消費する。

今までの Android のユーザーインターフェイスは、白地に黒文字を基本としてきたが、最近は「ダークモード」と呼ばれる、黒地に白文字を選べるようになっている。


そちらの方が明らかに消費電力が少ない、というので、そうしたモード設定を行う。

アプリごとに選べる場合もそちらに。


ホーム画面の背景も、落ち着いた暗い色合いにしておいた。

もっとも、僕は背景は暗めが好みなので、以前からそうした背景画像にしていたのだけど。




アラーム設定で、なぜか「Google アシスタントのルーチン指定」ができない。

P10 plus ではできたのに。


これは、アラームを止めると、Google アシスタントが起動する設定。

起動して、現在時刻、今日の天気予報、カレンダーに書かれた今日の予定…などを音声読み上げしてくれる。


これがとても便利で目覚ましに使っていたのだが、使えないのは残念。

もっとも、何か別の設定で有効になるのに、まだ気づいていないだけかもしれない。




カメラ性能は非常に高いはずだが、P30 を入手してからまだ撮影するような機会がないので、十分に確認できてない。


とりあえず、ズームとマクロが利くようになったのは素晴らしい。

今までもズームはできたが、せいぜい2倍まで。

(撮影画素数にもよる。低解像度での撮影なら、ズーム倍率を上げられる。)


それ以降はデジタルズームなので、画質が荒れてしまう。


これを、ズーム専用のカメラを持つことで、5倍までズームできるようになった。


そして、マクロ専用のカメラも持っていて、すぐ近くのものを撮影できるようになった。

以前は、あまり近いとどうしてもピントが合わせられず、小さなものをとるときは「少し離れてズームする」のが一番良い方法だった。


近くでとるのと、遠くからズームするのでは、少し写真の雰囲気が異なってくる。

自由に撮影できるようになるのは楽しい。




指紋認証は、P10 plus に比べて遅くなった。


僕は P10 plus しか指紋認証を知らないのだけど、Huawei の指紋認証は他社よりも高速で、使い勝手が良かったそうだ。


しかし、それも良い指紋センサーを搭載していたため。

P30 では、画面に直接触れることで指紋認証をしている。


どうやって画面内で指紋を読み取っているのだろう…と思って調べた限りでは、有機 EL はバックライトがいらず、それなりの透過性(光を通す)もあるため、ディスプレイの「裏」からカメラで撮影しているようだ。


しかし、これが今までの接触型指紋センサーよりも遅いようだ。


P10 plus では「触れただけでロック解除された」のが、P30 では「指を乗せるとロック解除される」感じ。

触れると乗せる、の微妙な違い、お分かりいただけるだろうか?


さらに言えば、指紋認証がうまくいかない率が少し上がった気がする。

もっとも、これは指紋を登録しなおしたら認識率が上がったので、最初は新しい方式のセンサーに慣れないで、うまく登録できてなかっただけかもしれない。




指紋とは別に、P30 では顔認証も使えるようになった。こちらは非常に速い。

両方とも有効にしている場合、指紋センサーに手を置いた時点で、顔認証も同時に始めるそうだ。


そして、顔認証は指紋認証よりも早い。

スマホを机から持ち上げたときも(そういう加速度をセンシングした時も)、自動的に顔認証が働く。


そのため、使おうとして画面をのぞき込むと、もうロックは解除されている。


指紋認証の出番は、机に置いたままロック解除したいときだけだ。

そして、そういう場合は「指を乗せる」ような感じでの操作もしやすい。というか、すぐに慣れた。


そんなわけで、遅さはデメリットではあるのだけど、そのデメリットをカバーする仕組みは用意されていた。




思いつくままに書いたが、ファーストインプレッションとしてはこんな感じ。

そうそう、指紋認証を画面内で行うため、保護フィルムなどは貼らない方が良いのではないかと思い、購入していない。


Huawei は…全機種かは知らないけど、出荷時に画面に保護フィルムを貼ってくれている。

「出荷時の保護シート」ではなく、普通に使える保護フィルムだ。

(そして、その上から出荷時シートを張って箱に入っている)


ケースも付属するが、安い TPU (熱可塑性ポリウレタン)のものだ。

P10 / P10 plus はポリカーボネートのケースだったのだけど、TPU の方がクッション性があり、落下時の衝撃などから守れるからこちらにしたのだろう。


一方、TPU は黄変しやすい素材で、半年も使っていれば黄色くなってくる。

1年もたつと、硬化もしてくる。


まぁ、買い替え時の2年くらいまで使い続けても大丈夫なのだけど、かなり見た目は悪くなると覚悟した方がいい。


もう一つ問題があって、P30 はカメラ部分が出っ張っている。

おそらくは、カメラ性能を上げるため、光学部分に厚みが必要だったのだ。

(電子回路は小さくできるが、光学部品はある程度「光が移動する」空間が必要だ。)


付属のケースでは、カメラを保護するために、ケースのカメラ周辺部が盛り上がている。

そのため、机に置くとガタガタして安定しない。



先に書いた通り、僕はケースを別途購入した。

背面の広い部分はポリカーボネート、周辺部分は TPU のハイブリッドで、カメラ部分保護の盛り上がりはありつつ、ケース四隅にも同じ高さの「足」をつけて、机の上で安定する。

(同時に、この足はポリカーボネートが机に擦られて傷つくのを防ぐ)


TPU 部分は透明ではなく色付き。黄変してもそれほど悪い見た目にならない…と思いたいが、こればかりは時間がたたないとわからない。




▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

歯車

別年同日の日記

04年 SWHインテリア打ち合わせ

12年 サーバー設定 2012夏

14年 続・6502は遅かったのか?

15年 X68k 復活


申し訳ありませんが、現在意見投稿をできない状態にしています

Nintendo DSi  2019-08-29 15:15:08  コンピュータ 家族

▲目次へ ⇒この記事のURL

我が家に(我が家的に)、最新のポータブルゲーム機がやってきた。


Nintendo DSi だ。


…まぁ、日記のタイトルでばれているが、長女が中古品を購入した。

ポータブル機としては、一番新しいものになる。




これまでは、PSP と DSLite あたりが最新だった。

PS Vita / 3DS 世代は買っていないから。



長男は、2012年の誕生日プレゼントとして「ポケットモンスター ブラック2」を入手している。

このころは、DS が最新機種だった。



1年くらい遊んでいたが、その後遊んでなかった。

難しくてやめてしまったのかな、と思って聞いたら「とっくにクリアして、その後も遊んでいたのだけど、さすがに飽きた」とのことだった。


(友達とポケモン交換とかしないの? と聞いたら、当時の友達は「家にあった古い機械で」遊んでいる子が多く、最新のポケモンで一緒に遊べる子がいなかったようだ)



その後…たしか、2016年頃だったと思うが、長女もポケモンをやりたい、と言い出して、中古の「ホワイト2」を購入。

家には僕と妻の分、2台のDSがあったので、一緒に遊べていた。




長女の希望で、Switch の「ピカチュー イーブイ」を購入したのが今年の頭ごろ。

(代金は長女と次女の折版。ちなみに、イーブイを買った)


で、遊んでいて思い出したのか、DS版も再び遊び始めたのが数か月前。



僕のDSは発売と同時に買ったもので、少し前から調子が悪かった。

液晶の下の方が、数ライン表示されない。


それが、先日ついに「急に電源が切れる」という症状に見舞われるようになった。

電池の寿命ではなく、何やら電源周りの回路がおかしい模様。

AC アダプターにつないで遊んでいても切れてしまうから。



で、話が長くなったが、長女が「自分で新しい DS 買う」と決断したのだ。

以前から、今なら中古で3千円も出せば買えるよ、と教えてあったので、お金をためていたらしい。


「手元にある程度残しておきたいので」、余裕を持った金額を目標にしていて、もう少し後に買おうと思っていたらしい。

でも、今すぐでも買えなくはないので、「今すぐ買いたい」という。




急遽、家の近所の HardOFF に行ってみることにした。

というのも、以前ジャンク扱いで、付属品一切なしのDSを千円程度で売っていたのだ。


ACアダプターなどは家にあるので、それを使えれば掘り出し物だ。


でも、 HardOFF なので、事前にどういう店か説明。


自分で動作確認できるコーナーがあって、納得すれば買えばいいが、保証はない。

しかし、お店側もそれによって人件費を節約できるので、非常に安い。


とはいえ、そこに何があるかは時の運なので、今日行っても、目当てのものがあるかはわからない。

などなど。



そして納得の上で HardOFF に行き、ジャンクコーナーへ。

…あれ、以前はある程度置いてあったジャンクの DS が、一切ない。

3DS ばかりになっていて、ジャンクでもさすがに高い。


DS は古くなりすぎてジャンクでも扱わなくなったのかな、残念…。

まぁ、今日すぐは無理でも、ネットで安いのを探して買おう、と長女と話し合って、納得してもらう。



さて、この日は次女も一緒に来ていた。

次女も「一緒にポケモン遊びたい」というので、ブラックかホワイトを買いたいのだそうだ。


中古ソフトコーナーに移動。ブラックもホワイトも置いてあった。

どちらにしようか悩む次女。


…で、僕はその横にあった周辺機器コーナーを見ていたら、DS LL が3千円で置いてあった。


あ、なんだ。こっちにDS置いてあるじゃん。


そう思って別のところを見ると、いくつかDSの「付属品ナシ」も置いてあった。

そちらは1200円ほど。これなら長女でも手が出そうだ、と思って状態の良いものを探してみる。



すると、DSi の、ACアダプタ・タッチペン2本付き(つまり、箱・取説はないが付属品はある状態)が、千円だった。


え? なんで? 安すぎる。




少し考える。

DSi は、DS にあったアドバンス用のスロットがない。

つまり、後方互換性が切られている。


代わりに、インターネットからダウンロード販売ができるようになったが、そのサービスはもう終了している。

つまり、新サービスは受けられず、旧ゲームは遊べない。


それで安い…のか?


1200円 DS は、付属品はないが「動作確認済み」と書いてある。DSi は書いてない。

もしかしたら、ジャンク扱いで安いのかもしれない。


長女を呼んで、考えられるメリット・デメリットを説明する。

うちにはアドバンスはあるので、アドバンスのゲームが遊びたければアドバンスで遊ぶ。


というわけで、DSi のデメリットは特にない。


あとはこれがジャンクでなければ欲しい、というので、カウンターに行って「動作確認してもいいですか?」と聞いてみる。


店の人は、快く「いいですよ」と言ってくれた。


で、安すぎることと、ジャンク扱いですか? と聞いてみたが、周辺機器コーナーに置いてあるものはジャンクではなく動作確認済みだという。


話をしながら動作確認したが、問題なく動く。

DSは開いてみないと内部がわからないが、液晶などもきれいでドット欠けもなく、使用感もあまりない。

美品と言ってよい状態だった。



で、お店の人曰く「おそらく、店の誰かが値段をつけ間違えたんでしょうね…」と。

通常なら、少なくとも3千円以上ですね、と言っていた。


その言葉を聞いて不安そうな長女に気づき「もちろん、この値段を付けたのですから、この値段でお売りします」と。



これで長女は購入を決めた。

良い掘り出し物だった。




次女もホワイトを購入。

本体より高い、1200円。


これが、前の人がやっていたデータが残っていたのだが、レアポケモンが多数残っていた。

とりあえず、長女が延々とポケモン交換して、長女のソフトの方にデータを救い上げてからリセットした。



長男は「DSもう一台買ってくれば3人で遊べたのにー」と言っているので、掘り出し物だったから2台はない、と言っておいた。


そうしたら、電源ケーブルなしで1200円なら買おうかな…と検討し始めたようだ。




最後になるが、HardOFF の店員さんとの話に戻る。


本体とソフトをそれぞれ動作確認してから購入していたので、やりながら話をしていた。

もう古いゲームだけど、兄弟3人で遊びたくて今から中古ソフト買ってます…という話をしたら、心底羨ましがっていた。


一人っ子なので、兄弟で同じゲーム遊んだ、とかの経験はないそうだ。

兄弟でポケモン交換とか、仲良くてうらやましいと。



本当に、仲の良い兄弟に育ってくれて、親としてもうれしく思っている。


▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

家族

別年同日の日記

13年 次女発熱

16年 マイケル・ジャクソン 誕生日(1958)


申し訳ありませんが、現在意見投稿をできない状態にしています

SVG うねうね  2019-08-22 18:26:55  コンピュータ

▲目次へ ⇒この記事のURL

前回日記に書いた、仕事で必要なリアルタイムの絵の生成の話。


Canvas で生成したり、CSS でアニメーションしたりするのは以前からよくやっているのだけど、SVG でアニメーションする必要があった。

これが僕にとっては未知の技術だったので、今回のデモでは「あらかじめ作った絵でごまかす」を選んだのだった。




SVG でアニメって、SMIL とかいう技術を使うんだよな…と思っていたら、今は SVG + CSS Animation もできるらしい。

僕の知識がすでに古かった。


で、やりたいことを CSS Animation でやってみたら、できなかった。

CSS だと、単純な移動とかはできても、path を動かしたりは融通が利かない。

(アニメ自体はできるけど、制御が利かずに思ったようには動かない)


じゃぁ、SMIL ならできるのか、と調べると、こちらも単純な移動程度。


結局、1コマづつ画像を生成して、連続表示するという泥臭い方法をとるしかないことを知った。



仕方なく泥臭い方法で作ったら、思い通りに動いた。

思ったよりは簡単だった。


作ったのは、データに応じてリアルタイムに動く円グラフと、棒グラフと、ベジェによる曲線グラフ。




SVG 、今までややこしそうで避けていたのだけど、理解してみたら便利だな。

回路図程度なら、画像を描くよりも SVG で入れてしまった方が楽かもしれない。



▲目次へ ⇒この記事のURL

別年同日の日記

04年 大忙しです

13年 国立科学博物館

17年 夏の家族旅行 2017

17年 下田海中水族館

17年 とうてんぽーる

17年 アニマルキングダム・動物園エリア

17年 アニマルキングダム・遊園地エリア

17年 アニマルキングダム・2周目~帰路


申し訳ありませんが、現在意見投稿をできない状態にしています

ひといき。  2019-08-20 10:53:14  コンピュータ

▲目次へ ⇒この記事のURL

前回の日記に書いたように、知人の会社の手伝いでプログラムを作っている。


前回の日記は、先々週の週末の話だった。

その後、先週いっぱいは激しくバグ報告、新機能追加、細かな調整が行われて忙しかった。



「とにかく間に合わせたいので見た目だけできていればいい」と言われて作った機能が、見た目だけ整えたら「中身がないんだけど」と言われたりとかね。


いや、見た目でいいって言ったじゃん、というと、「そういったんだけど、見た目ができたら欲が出てきた」とかって。


時間が許せば要望の機能は入れたし、時間がなくてもそれらしいものは作った。


「そのうち作りたいね」と言っていた大きな機能追加があって「やっぱデモに入れたい」とか急に言われたのを3時間くらいで作ったのが最大の山場。


いつか作りたいといっていたので、処理概要は考えてあったのだ。


その時点で画面仕様書もなかったので、「作ってみたいのがあるから、とりあえず任せろ」と、思うままに作らせてもらった。

結果、知人が想定していた以上のものを作ったらしい。一発OKとなった。





で、今週はバグ報告待ち。一息ついている。


昨日は夕方になってから「やっぱほしい」という機能追加の要望が来たが、数時間で終わる内容。


実のところ、今回作成している内容で、一番「作るのが大変そう」な部分は、作るのを諦めてしまった。

リアルタイムに絵を生成しないといけないのだけど、とりあえずあらかじめ用意した絵を表示するようにしたのだ。



デモに間に合わせるのはこのままでよいとして、リアルタイム生成のための研究など始める。

何とかなるだろう、という手ごたえは得る。




なんのシステムを作っているのか、書いてもよいのかな、とも思うのだけど、とりあえず書かない。

以前口頭で知人から「宣伝してもらって一向にかまわない」と言われていたと思うのだけど、一応企業秘密に属するものだと思うから。


そのうちお伝えできればと思う。


▲目次へ ⇒この記事のURL

別年同日の日記

06年 サーバー交換


申し訳ありませんが、現在意見投稿をできない状態にしています

プログラム合宿  2019-08-13 10:55:35  コンピュータ

▲目次へ ⇒この記事のURL

いや、全然合宿ではないのだけど、そんな雰囲気だったので。



現在、会社員時代の知人の興した会社の仕事を手伝っている。

近日中に、商談で開発中のシステムを見せる必要があり、現状の機能のままでよいので見た目の完成度を高めたかった。


そこで、知人の発案で、知人の会社(小さな部屋を借りているだけ)に関係者が集まり、集中的に作業をすることになった。




関係者、といっても、企画者である知人と、プログラマーの僕、グラフィックデザイナー、サウンドクリエイターの4人だけだ。


事前に、金曜日に「集まる」としていたのだが、木曜日の朝から変更したい要望リストが上がり始めた。


文字列の変更なんかは簡単だが、中には大きな機能追加もあった。

そんなもの、金曜日だけで急に作れるわけがない。


そんなわけで、木曜日はこの要望リストを片っ端から潰していく。

簡単なものから潰していき、ある程度片が付いたところで難しそうな課題に挑む。


こういう時は、あまり考えていてはだめだ。

最初に「こうすればよいのではないかな?」と直感で思ったものを作ってみる。

うん、見事に動かない。




動かないなら、なぜ動かないのかを探る。


現在僕が作っているシステムは、古いシステムを新しいフレームワークで「作り直した」ものをベースにしている。


古いフレームワークは、いろいろな諸事情があり捨てなくてはならないのだ。

わざわざ「作り直し」をしているのは、そのためだ。


そのうえで、新機能の追加や、わかりにくい部分のUI(ユーザーインターフェイス)改善など、様々な課題があった。

しかし、いっぺんにすべてを進めるとわけがわからなくなり、失敗する危険がある。


そこで、過去のしがらみを捨て、必要な機能だけのミニマムセットの移植をまず行い、その後拡張を行うことになっていた。



この、単純な移植作業は別の人がやってくれた。

ただ、その人はその移植作業までで契約が終わっており、僕が知人から拡張を頼まれた。


そんなわけで、僕はシステムを完全に把握してはいない。

しかし、どんな処理がどこに入っているか、程度の概要は把握できている。


そこで、ソースを見て、動くと思ったプログラムが動かない理由を考えるのだ。




なるほど、少し考え方に間違いがあったようだ。


僕はいま、新規データが追加されたときの処理を作ろうと思い、プログラムを見ていた。

すると「不要データが削除されたとき」や「データの書き換えが行われたとき」の処理があり、それらの際にシステムから一定の方法でイベントが渡されることを知った。


新規データの時も同じようなイベントが来るだろう、と思って作ってみたら見事に動かなかった。

そして、プログラムを見た結果、新規データだけは全然違う形でイベントが渡されると知ったのだった。


では、そのイベントを受け取るように変えよう。

少し試行錯誤してデータの型合わせをする必要があったが、プログラムは狙い通りに動いた。



こんな作業を繰り返しながら、知人が出してきた要望を片っ端からシステムに作り込んでいく。




さて、木曜日の夕方までに出された要望は、木曜日の深夜までに全部盛り込んだ。

UIの見た目の調整などはあるだろうが、それは些細な問題だ。



金曜日、朝から知人の会社に出向く。すでにデザイナーの人は来ていた。


そこからが合宿の開始だ。


すでにデザイナーさん向けへの要望も木曜日のうちに出ていた。主にUIで使用するアイコンの修正などだ。

的確な指示もあれば、「どうすればいいかわからないけど今のものは問題がある」というような指示まで、多岐にわたる。


デザイナーさんは、すでにいくつかの案を考えてきていた。

いくつかにはさらに要望が出され、すぐ使えそうなものは僕にデータが渡される。


僕はそれらを組み込み、UIとしての見た目を確認していくわけだが、ここで「思ったより良くない」などのダメ出しも出る。


デザイナーさんが直し、僕が入れる。

この作業をしている間にも、僕の方にも要望が出てくるのでプログラム修正も必要だ。




知人とは、ゲーム会社に勤めていた時代からの付き合いで、こういう作業を共に…1か月ほど繰り返したことがある。

ゲームって、普通は少なくとも3か月かけて作るのに、締め切りの都合で1か月で作ったことがあるんだよ。

その時は、毎日「アイディアが出たらすぐ実装、確認してブラッシュアップ」の繰り返しだった。


なんだか懐かしい雰囲気だ、というと、デザイナーの人も今は独立して一人でやっているが、会社員時代はこんな雰囲気だったと言い出した。


そして、全員が「こういう雰囲気は嫌いじゃない」と。勢いに乗って、製品の完成度が高まっていくのは楽しい。




午後からはサウンドの人も加わった。

実は、サウンドが一番要望を伝えにくいもので、顔を突き合わせながら出ないと良いものができない。


以前に、使用するサウンドをいくつか作ってもらっていたのだが、実際にシステムに組み込んだところは聞いてもらっていなかった。

そして、実際組み合わせて鳴らしてみると「思っていたのと違う」ことになりやすい。



通常、多くならされる音と、特別な時になる音の「音色のバランス」が問題だった。

音量の問題ではなく、音色の問題として、特別な音がほかの音に隠されて気づきにくい。


もっと特別感のある音を、という要望で、サウンドの人が音色を調整する。


実は、複数の音を入れておいて、キー操作で切り替えられる仕組みを、事前に作り込んでおいた。

これで、いろいろな音の組み合わせを試してみる。

その結果を受けて、さらに音が作り込まれる。



これを何度か繰り返す間に、急に「これだ」という瞬間が訪れた。

全ての音がきれいに はまった感じがしたのだ。



サウンドの件はこれで終わり。

この作業で2時間くらいかかっていて、この間もグラフィック調整も行っているし、プログラムの追加なども行っている。




夜八時半。

サウンドとデザインの調整はほぼ終わり。


プログラムはまだ積み残しがあるが、これは後日(今週だ!)やることにして終了する。


普段は一人で働いているので、こんなに激しくプログラムしない。

会社員時代はこれを当たり前にやっていたわけで…


毎日やっているとつらいんだけど、久しぶりにやる程度なら、充実感があって、なかなか楽しいものだった。



▲目次へ ⇒この記事のURL

別年同日の日記

02年 音楽な1日

14年 電子メールの誕生日(1982)

15年 人材交換

18年 夏祭り


申し訳ありませんが、現在意見投稿をできない状態にしています

パスワードの管理方法(令和元年版)  2019-07-14 11:47:37  コンピュータ 歯車

▲目次へ ⇒この記事のURL

5年も前に書いた記事に、ご意見をいただいた。

記事の間違いを指摘してくれたものだ。


以前からたびたび書いているが、僕は自分の知識が正しいとは思っていない

5年も前の記事なら状況も変わっているだろうからなおさらで、こうした指摘はありがたい。


しかし、今回に関してはどうもご指摘がおかしいように思えた。

最新の情報では変わっていたりするかも…と念のため調べたが、今でも僕の書いた記事は有効なようだ。


どうも、ご指摘が勘違いからくる誤りのようだが、一人ご指摘をくれたということは、それ以上に多くの人が同じような勘違いをしているように思う。

そのため、過去の記事の内容を解説し、指摘がどう誤っているのかを記しておく。




まず、過去記事の概要。


パスワードは紙に書いてはダメで、すべて記憶するのが正しい、と思っている人が多いことに対して、その間違いを指摘した記事だ。

(これも5年前の話なので、今でもこう思っている人は減っている、と思いたい)


パスワード管理する上で、重要なのは


・サイトごとにすべて変更する。

・ほぼランダムに見える文字列を使う。

・時間的にも時々変更する。


の3点で、これらの決まりを守ろうとすると、パスワードを記憶する、というのは難しくなる。



そのため、20世紀には、「パスワードは紙に書かず、記憶するのが正しい」とされた時代はあるが、現代においては紙に書くのは悪い手段ではない、と解説したものだった。



これに対して、いただいた意見は「時間的な変更」をやってはならない、とするものだった。

時間的に変更することを促すと、パスワード管理が雑になり、セキュリティが弱くなる、という指摘だった。




この指摘は、2017 年に NIST (米国国立標準技術研究所)が勧告したパスワード管理方法を踏まえたものだろう。

僕の記事は 2014 年に書かれたもので、情報が古くなり意味を失った、と捉えることもできる。


NIST は、米国政府関連で求められる認証方法について、時代に合わせて適切なセキュリティ強度を保つための勧告をまとめている。



2017 年の報告では、パスワードを設定する際のユーザーインターフェイスなどについてもまとめている

ここには「パスワードの変更を強要すべきではない」という趣旨が書かれている。



これを受けて、国内でも総務省が「安全なパスワード管理」という呼びかけページを作成した。



ここに、パスワードの「定期的な変更は不要」と書かれている。


これがちょっと問題ありで、見出しに大きな文字で「定期的な変更は不要」と書かれてしまった。

内容を読むと、変更が不要なのではなく、「パスワードの定期的な変更を要求すべきではない」と書かれている。


この内容自体、 NIST の勧告に基づくものだ、と書かれていて、趣旨も同じだ。

あくまでも「変更の要求」に問題があるとするものだ。


しかし、見出しに「定期的な変更は不要」と書いてしまったために、多くの人が勘違いしてしまった。

新聞報道などでも「パスワードは変更しない方が良い」として広まってしまった。




NIST の勧告はセキュリティのためだけではなく、ユーザーの利便性を考えて「システムによる行き過ぎた規制」を緩和しようとしているものだ。


パスワード変更を強要すべきではない、という文脈には、「異なる文字種の混合を要求したりしてはならない」というものも入っている。


異なる文字種…数字、大文字、小文字、などだ。

この3つを、それぞれ少なくとも1つ以上は使うように求めるシステムは結構多い。

それらを混ぜることで、セキュリティが高まると期待しているのだ。


しかし、NIST はこれを禁じている。

ここにあるのは「ユーザーに不便を強いるな」という意図であり、セキュリティ強度とは無関係の話だ。


(一応、文字を混ぜても期待するほどセキュリティ強度は上がらない、という解説が巻末についているけど)



以上のように、NIST 勧告の「時間的な変更をやってはならない」は、システムに組み込むべきではないという指針だ。

それに対し、僕が過去記事に書いたのは、各ユーザーが自発的にとるべき、パスワード管理の心得を書いたものだ。


これらは全く性質の異なるものだ。



しかし、今回いただいたご指摘は、これを混同したものだった。

異なるものを混同し、「パスワードを変更してはならない」と考えていると、セキュリティ上のリスクを生じてしまう。




なぜ時間的な変化が必要かを示そう。


単純な話、パスワードはいつか破られる。

もちろん、攻撃側にその気があれば、の話だけど。



攻撃者がパスワードを知る方法なんて、いくらでもある。


たとえば、パスワードハッシュファイルの入手。

詳細は5年前の記事を参照してほしいが、攻撃者がパスワードハッシュを入手した場合、比較的「覚えやすい」パスワードなら、解明されてしまうだろう。


覚えにくい…ランダム文字列は、解明を遅らせることができる。

だから、「ほぼランダムに見える文字列を使う」という指針が入ってくる。



その一方で、キーロガーと呼ばれるような手段を使い、あなたが入力するパスワードを「直接」記録する方法もある。

この方法で奪われた場合は、キー入力がそのまま漏れてしまうため、文字列がランダムに見えるかどうかは関係ない。


あとは、パスワードが「漏れた」前提の話となる。


被害を最小限に食い止めるためには、そのパスワードが使える場所を限定しておくことだ。


「サイトごとにすべて変更する」というのは、そのための指針となる。




では、最悪の状況、実際に被害が出たとしよう。

問題は、それがどのような被害だったか、ということだ。


「勝手に買い物」された場合は、身に覚えのない請求が届くので気づくだろう。

しかし、メールなどを覗き見られて生活を丸裸にされている場合には、パスワードが漏れたと気づくだろうか?


時間的に変化させる、というのは、こうした気づかない被害に対する防御策だ。


大規模なパスワード流出があった、というような状況では、世間的にもパスワードの変更が呼び掛けられる。

パスワードが「漏れたかもしれない」と思えば、変更しておくのが良いだろう。


が、ストーカー被害の場合は身近な人によるショルダーハッキング…あなたが会社の PC などを操作しているときに、後ろからパスワードを覗き見ただけ、などの可能性がある。


キーロガーすら使わない。パスワードは、漏れるときは本当に簡単に漏れる。

そうした状況では、自分のパスワードが漏洩した、と気づくのは難しい。



NIST では、「第三者のログインに気づくようなシステム」を構築することも推奨している。

そうしたシステムなら、パスワードが漏洩し、情報を覗き見られていることにも気づくかもしれない。


しかし、残念ながらそうではない WEB サービスが多い。


ここでの自衛策は、時々パスワードを変えることだ。

普段から時々パスワードを変える、という習慣を持っていれば、パスワードが第三者に知られたとしても、被害をある程度の範囲で食い止めることができる。


「時間的にも時々変更する」というのは、そのための指針だ。




ただ、ここでいう「変更すべき」なのは、ユーザー各自の裁量に任されていることに気を付けてほしい。


先に書いた通り、NIST は「変更を強制すべきではない」とするだけで、この件についてあまり触れていない。

しかし、「強制的にパスワード変更を促す」システムは弊害しかない、というのはセキュリティ専門家の多くの意見が一致するところだ。



定期的に変更すべき、と言われて自主的に変更するユーザーは、セキュリティ意識が高い。

当然、変更の際にも妥当なパスワードを設定するだろう。


しかし、特にセキュリティ意識がなく、パスワードを「面倒だけど設定しないといけないもの」程度にしか思っていない人の場合、頻繁に変更を繰り返すと、覚えやすい単純なパスワードに収束していく傾向がみられる。


変更しろ、と言われたから、最初は 1234 に。次は abcd に…という具合に。

最初の設定ではそれなりに強度のあるパスワードを使っていたとしても、より弱いものに変えさせる「強制」は、百害あって一利なしだ。


(ちなみに、NIST の勧告では、abcd や 1234 といった「連続文字」パスワードは設定できないようにしなくてはならない、と示されている。

 これらは、ユーザーの利便性を最大限に考慮したうえでも、設定されるべきではないパスワードだ)



過去の記事に指摘をくださった方が「時間的な変更を促すと、パスワード管理が雑になる」と言っているのは、このことだろう。


同じ「時間的な変更」であっても、システムが強制するのと、ユーザーの自発性に任せるのとでは意味が違う。

この二つを混同してはならない。



強制はしてはならないが、時間的な変更はされるのが望ましいのだ。




話はこれで終わりだ。


NIST 勧告の「変更を強制すべきではない」はずいぶんと勘違いされていて、パスワードを変更してはならないのだと思っている人が増えているようだ。


強制すると雑になるから、というのは、ご指摘の通りだと思っていい。

多くの専門家がそう指摘している。


また、NIST 勧告では書かれていないものの、「わざわざ書かないだけ」で、前提にしている気がする。



一方、今回指摘を受けてネットを調査していたら、「パスワード変更の際に、変更しようとしているパスワードがネットワークを流れることになるから危険」と言う主張も見た。



変更自体が危険なのだと思っている人は、こうした話を「裏付け」として信じてしまうかもしれない。


しかし、たいていパスワードは暗号化通信(SSL)を使って通信されるから、覗き見られることはない。


「暗号化も破られるかもしれない」という前提に立つのであれば、ログインするたびに通信されるパスワードのほうが、変更のために1度だけ入れられるパスワードよりも、ずっと危険性が高い。


この危険度を下げるためには、同じパスワードでログインされる回数を減らせばよい。

つまり、時々パスワードを変更すべきだ。


結局、「変更の危険性」を主張しようとして変な前提を持ち出しても、むしろ変更すべきだという話になる。




さて、以下は余談。


わずか2週間前に、セブンイレブンが新しい電子マネーである「7pay」を導入しようとして、大失敗をやらかして、炎上した。


最大の大失敗は、システム側でのパスワード認証が「ざる」だったことだ。


本人の生年月日を答えられれば、任意のメールアドレスに対してパスワードの再発行を要求できる、というシステムがあり、生年月日を設定していない場合の日付初期値が固定だった。


このため、アカウントの ID さえ割り出せれば、高確率でパスワードを奪い取ることができた。

そして、ID は特に秘密ではない情報だった。


記者会見に応じた 7pay 社(セブンイレブンの子会社として電子マネーの会社が作られた)の社長は、報道記者から「なぜ二段階認証を使っていないのか」と質問され、「二段階認証って何ですか?」と基礎知識がないことを衆目にさらした。



パスワード管理の話としてはどこから突っ込んだらよいのかわからないところだが、二段階認証の説明をしたい。

すでに使っている人は多そうだが、これが何を目的としているのかちゃんと認識している人は案外少ないように思う。




二段階認証は、「パスワードは第三者が簡単に盗めるものだ」という前提に立っている。

簡単に盗めるから、 ID とパスワードの組を知っているから本人、とは単純に認証できない。



一方で、現代では、多くの人が携帯電話を持っている。

そして、携帯電話には電話番号がある。この電話番号は、本人と強く結びついたものだ。


そこで、アカウントに対してあらかじめ「連絡手段」としての携帯電話番号を登録しておく。

連絡手段があればよいので、固定電話やメールアドレスが使われる場合もある。



ID とパスワードの組での認証に成功した際、これは「第一段階」を突破しただけで、ログインにはならない。

ここで、「二段階目」として、サーバーから連絡手段を通じて何らかの情報(通常は6桁程度の数字)が伝えられる。


携帯電話番号に対してショートメッセージを送信、というように、この情報は「本人だけが受け取れる」ことが期待される。

そして、受け取った本人が情報をサーバーに伝え、正しい場合にやっとログインが完了する。



この方法は、


・本人にだけ伝えられる情報を利用するため、正しく本人であると確かめられる。

・万が一パスワードが盗まれた場合、本人に通知が行くため、パスワードが盗まれたことを知ることができる。


という2つのメリットがある。


特に後者は重要だ。


先に書いたが、パスワードが漏れて明らかな被害にあえば、パスワードを再設定するなどの対策がとれる。

しかし、通常は「ただログインされて情報を見られただけ」では気づかない。


二段階認証では、認証中に本人に通知を行うことで、第三者によるパスワード盗用が明らかになる。

これにより「見えない被害」を事前に「見る」ことが可能となるだろう。



ただし、大体のシステムにおいて、二段階認証は「オプション」扱いにすぎない。

携帯電話などを持っておらず「設定のしようがない」ユーザーもいるためだ。


そして、オプションを使わなければ、従来どおり、 ID・パスワードの組だけで認証が行われる。

認証自体は問題なく行われるため、二段階認証を使えるシステムであっても、これが何のためにあるのか理解できずに設定していない、という人は多い。


Google や Amzon, Facebook 、Apple、Twitter …etc,etc. 多くの有名サイトが二段階認証に対応している。

認証していないシステムでも、「Google アカウントでログイン」などが使える場合は、Google の二段階認証を「借りる」ことができる。


設定していない人は導入を検討してみてほしい。




しかし、実はこの方法での二段階認証は、強度的に十分ではないことがすでに分かっている。

SMS の通信文は「他人に奪われる」可能性があるのだ。



SMS は、電話番号に対して発信され、スマートフォンなどのデバイスで受け取られる。

しかし、スマートフォンに電話番号が割り振られているわけではない。

割り振られているのは SIM に対してで、この SIM は付け替え可能だ。


そして、スマートフォンは PIN などでロックをかけられるが、SIM 自体がロックされるわけではない。

ほかのデバイスに差し込まれた SIM に対して送られたメッセージは、簡単にみられてしまう。


つまり、ちょっとスマホを置いて席を離れた間に、別の人が SIM を自分のスマホに差し替え、2段階認証を突破してしまう、ということも可能なのだ。


パスワードも知らないと二段階目まで進まないわけだが、ここまであなたの近くに潜り込める人であれば、ショルダーハッキングでパスワードはすでに知っている、と思ってよいだろう。



これは、物理的に近づかないといけない例だが、技術的には特に難しいことはない。

技術的な例でいえば、スマホアプリは、ユーザーの許可さえ受ければ SMS の内容を読みだすことができる。


悪意を持ったプログラムを内蔵した、ごく普通のゲームなどに見えるアプリが SMS の内容を盗み見て送信する…ということだってできるだろう。

もちろん、そういうアプリは操作の一部始終を見ていて、どこかにログインしようとしたときに ID/パスワードの組も送信しているわけだ。



また、国内の例ではないが、海外では携帯電話自体の通信プロトコルの脆弱性を突かれ、本来の電話番号の持ち主ではない端末に SMS を受け取らせてしまう、という攻撃も行われている。


SMS は決して安全ではない、ということがわかってもらえるだろうか?



メールアドレスに対する通知でも同じことがいえる。

むしろ、こちらの方が簡単に奪い取れるだろう。


固定電話は…本当の意味での「固定電話」なら、電話線に対して電話番号が割り振られている。

変更するには電話局内での設定が必要で、通信を盗むことは難しい。


しかし、今は「固定電話」といっても IP 電話であることが多く、これは後から機器に電話番号を割り振っている。

やはり過信は禁物だろう。



サーバーから本人に対して、「安全な通信経路が確保できる」というのが、この方式での二段階認証の前提だ。

安全な通信経路が確保できない場合、安全ではなくなる。




では、通信を行わないで、認証する瞬間にだけ使用可能な、本人だけが知れる情報で、サーバーに侵入されても情報が漏洩しない方法で、サーバーと秘密を共有すればいい。

そんなことできるの? と思われるかもしれないが、ちゃんとそうした方法は考案されていて、一部の二段階認証では選択できるようになっている。


ワンタイムパスワード、と呼ばれるもので、仕組み自体は結構古い。

2006年…いまから13年も前には、すでにジャパンネット銀行が導入している。


先に「パスワードは時間によって変更したほうが良い」と示したが、それを究極まで突き詰めたものだ。

30~90秒で、自動的にパスワードが変更されてしまう。これなら、万が一パスワードが盗まれても問題ない。


パスワードが変わってしまうと、本人すらログインできなくなりそうだ。

しかし、本人だけが持っているデバイスに、変更されたパスワードが示され続ける。


だから、本人だけはログイン可能だ。



ここで重要なのが、パスワードを示すのに通信などは不要だ、という点だ。

サーバーとデバイスは、お互いに示し合わせることなく、次々とパスワードを変えていく。


しかし、それらは時刻を基にした一定の計算方法で示されるもので、デバイスとサーバーで一致している。

計算で示される…ということはランダムではないのだが、たとえ計算方法を知っていたとしても、「鍵」がなくては同じ計算が行えない。


そしてここが一番肝心なのだけど、計算のための「鍵」は、デバイスの中にしかない。サーバーにもない。

だから、万が一サーバーに侵入され、情報を盗まれてもパスワードを知ることはできない。


この鍵は、公開鍵暗号を応用したものだ。

公開鍵暗号は、「公開鍵」と「秘密鍵」のセットを使い、秘密鍵で暗号化した内容は公開鍵でしか元に戻せない。


だから、デバイスが秘密鍵を持ち、サーバーに公開鍵を預けておくと、デバイスが作り出した暗号が「確かに正しい」ことをサーバーは確認できる。


公開鍵は、秘密鍵を基にして計算で求めることができる。

しかし、公開鍵を基にして秘密鍵を割り出すことは事実上できない。


だから、サーバーに預けた公開鍵を盗まれたとしても、それを基に秘密鍵を求めてワンタイムパスワードを生成する、ということができない。



13年も前に導入されたジャパンネット銀行では、6桁の数値を表示できる専用デバイスを配布してワンタイムパスワードを実現している。




最近は、この方法を一般化した「時間ベースのワンタイムパスワード認証」が使われ始めている。


RFC 6238 で規格化されており、複数の会社が同じ動作を行うハードウェアやアプリを作成しているので、自分の好みに合ったものを使いやすい。


ただ、上にあげた、公開鍵暗号の応用によるシステムほどにはセキュリティが強くない。

上のシステムは、RSA 社が発明した特許品だから、金を払わずに同じ方式を使うことはできないのだ。



公開鍵ではなく、共有秘密鍵を使う。

ということは、万が一サーバーに侵入されれば、鍵は漏れてしまい、他者でも同じパスワードが生成できるようになる。


もし「疑いがある」時には、共有秘密鍵を変更することもできる。

通常は、サーバーにログインして操作し、ランダムな数値で更新させた秘密鍵を、手元のデバイス(スマホなど)で受け取る。


一般的には、QR コードなどで画面に表示する方法をとるようだ。



Google のアプリの場合、秘密共有鍵は「受け取り専用」なので、スマホを買い替えたりした場合は、サーバーに入り、鍵を更新して受け取る必要がある。


これに対し、同じワンタイムパスワード生成機能を持つ IIJ のアプリの場合、秘密共有鍵を QR コードとして表示する機能がある。

ということは、スマホの買い替え時などには、鍵を再発行することなく移行が可能だ。


これはとりもなおさず、第三者が秘密鍵を盗むのも簡単だ、という意味になる。

スマホ自体にちゃんとロックをかけておけば盗むための操作もできないはずだけど、どちらを使うかはお好みで。




ワンタイムパスワードの共通規格が普及しつつあり、2段階認証で使用できるサイトも増えている。

こうしたサイトが増えれば、パスワードを盗まれたとしても、簡単にログインされることはなく、被害は受けづらい。


しかし、現在のところ、こうした「安全な本人確認方法」に対応していないサイトは、まだまだ多い。


そうしたサイトでは、5年前の記事のパスワード管理方法は、依然として有効だ。

逆に、十分に安全なサイトで迄パスワード変更の手間をかける必要はない、ともいえる。



そうした安全なサイトが十分に増えて、パスワードなんて不便なものはなくなってくれればありがたいのだけど。



▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

歯車

関連ページ

パスワードの管理方法【日記 14/05/22】

別年同日の日記

02年 お祝い

07年 最近のうちの子

10年 這えば立て 立てば歩めの…

13年 海水浴

15年 ジェイ・フォレスター 誕生日(1918)

15年 厄介なバグ

16年 監視ユーザーの問題回避


申し訳ありませんが、現在意見投稿をできない状態にしています

google photos その後  2019-06-14 12:27:41  コンピュータ

▲目次へ ⇒この記事のURL

2日前に「Google Photos にバックアップする方法、ノートパソコンだとつらいなー」ってことを書いた。


で、その後調査していて、普通に Linux で動く Google Photos アップローダーを発見した。

なんでも、2018年5月…およそ一年前に Google Photos の API が公開されて、サードパーティ製のソフトも作れるようになったようだ。


で、使ってみたのだけど、満足するものではなかった。

画像を圧縮しないで、元画像のまま送り込むソフトだったのね。


他にも、EXIF がついてない画像…つけようがない動画なんかも、撮影日がアップロード日付になってしまうそうだ。


圧縮はソフトの問題かもしれない。


一応、ある程度送り込んだところで、Google Photos 側で「圧縮」処理してもらい、Google Drive 容量を開ける、ということもできる。



でも、日付は API に指定方法がないためどうしようもない、とのこと。


類似ソフトはほかにも発表されているようなのだけど、API がないのであれば他のソフトでも同じ問題は出るのだろう。



そんなわけで、やっぱり本命は Windows の仮想化か。

1つのソフトのために仮想マシンを用意して Windows インストールするとか、なんか間違っている気がするので、ほかの解決方法があるとありがたいのだけど。





余談。

いつものことだけど、余談のほうが長い。



冒頭にあげたアップロードツール、コマンドラインで動くのだけど、普通は GUIというか、X Window 必須です。


というのも、Google の認証が必要で、その部分は WEB ブラウザでないとできないから。

WEB ブラウザは、普通に考えると GUI がないと動かない。


流れとしては、


1) アップロードツール起動

2) 初回のみ、Google の認証が必要。URL が表示され、ブラウザでアクセスするように指示される。

3) ブラウザでアクセスし、Google の認証を通すと、その結果をツールが受け取って動作できる。


という仕組み。

一度認証を通せば、その認証情報はツールが保持するので以降は認証する必要はない。



僕は家庭内サーバーを完全 CUI で使っていて、Windows 上の Putty …端末ソフトで扱っている。


そこで、まず w3m をインストールしてみた。

文字だけで動作する WEB ブラウザだ。とにかく WEB ブラウザが動けば大丈夫そうだから。



ここで、実は操作を誤った。

文字だけになったら普段見ている画面と違うので、勘違いして別のリンクを押したのだ。


そうしたら reCAPTCHA 入力画面になった。

画像の中にゆがんだ文字が書かれていて、入力を求められるやつだな。


…テキストブラウザでは、画像が見えない。


どうしよう、と考えて、cacaview というソフトの存在を知る。

テキスト端末でもアスキーアートとして画像を表示してくれるソフトで、reCAPCHA の文字が読める程度には再現性もよい。


w3m はテキストブラウザとは言え、画像部分は外部ソフトに渡してみられるようになっている。

X Windows 環境で画像だけ別ソフトで開くことを想定しているのだけど、cacaview で開いたってもちろん構わない。


cacaview は CentOS なら caca-utils というパッケージを入れれば入る。



…で、さんざん苦労して認証を通して(やっぱ reCAPCHA 文字は読みにくく、何度も間違えた)、そのあとで「あ、これ違う画面だ」と気づいた。

本当に進みたかったルートではない。


本来進みたいルートに進んだら、あっさりと「Javascript が動かないので別のブラウザでお試しください」という画面になった。


w3m は Javascript が動かない。ダメだ。




しばらく考えて、サーバーに入っている nginx を使うことにした。


GooglePhotos のアップロードツールでは、localhost に対してアクセスを求められる。

そこで、nginx で適当な名前でサーバー公開して(もちろん家庭内だけ)、バックプロクシとして動作させて localhost にアクセスすればよい。


これで認証は通った。

最後に、GooglePhotos のアップロードツールに情報を渡すため、もう一度 localhost にリダイレクトされるのだけど、この部分で「localhost」ってことで、Windows にアクセスが行ってしまう。


まぁ、URL はわかったので、w3m でアクセスする。

これで認証が通った。




先に書いた通り、GooglePhotos アップロードツールは僕の求めていたものではなかったのだけど、この手順を踏めば、一切 X Window 環境なしに使える、本当のコマンドラインツールになる。


必要な人はお試しあれ。


▲目次へ ⇒この記事のURL

別年同日の日記

02年 眠り姫

06年 CSS

13年 びわ


申し訳ありませんが、現在意見投稿をできない状態にしています

Google drive バックアップと同期  2019-06-12 14:49:47  コンピュータ

▲目次へ ⇒この記事のURL

新マシンに移行した。


旧マシンはしばらく使わないつもりで置いておく。

引き揚げ忘れたデータとかが眠っているかもしれないから。

でも、たぶん引き揚げ忘れたデータが本当にあったとしたら、それは忘れる程度のデータなので消えても構わないと思う。


実は、半年ほど前に旧マシンに Windows を再インストールしており、その際に「移行しやすいように」データ整理をしていたので、移行はスムーズにいった。




でも、若干の予想外もあった。


我が家では NAS に家族の写真・ビデオをたっぷりとため込んであって、この NAS は重要なので外付けハードディスクに定期バックアップもとっている。


しかし、それとは別に Google Photos にも写真を送ってバックアップしている。

「画質が落とされるのでバックアップにはならない」という人もいるのだけど、上に書いたように十分なバックアップは取った上の話だ。


Google のものは、万が一火事などで機材一切が滅失した際に、思い出写真として見られるのに十分なものがあればよい、という程度と考えている。


で、問題はこの Google に対するバックアップだ。

Google Drive を扱うツールは NAS のプラグインや Linux にもあるのだけど、Google Photos で「無制限」に写真を送るためのツールは Win / Mac 版しか用意されていない。




ここらへんで説明が必要な人も多いだろう。

Google Drive と Google Photos は、シームレスにつながるサービスだ。


Google Drive はネットワーク越しにデータを預かってくれるサービスで、Google Photos は写真を預かってくれるサービス。

でも、Photos の保存領域は、実は Drive のものだ。


ただし、Photos では「十分に小さな写真」は、Drive の容量として計上しないことになっている。

だから、今く使えば容量無制限で写真をバックアップできる。



ここで「十分に小さな」というのは、過去に何度か改定されてきている。

最初は、2048x2048画素以内、とされていた。実際にはバグがあって、ぎりぎりサイズはダメだったのだけど。


Google は、当時は Google Picasa というソフトを Windows 用に配布していて、このソフトからアップロードすると、自動的に 1600px まで縮小してアップロードしてくれた。

(当時は、Google Photos ではなく Picasa Web という名前だった


のちに、Picasa は開発終了し、写真のバックアップだけを行う Google Photo Uploader が作られた。

そしてさらに、Google Drive バックアップと同期、というソフトに変わった。



同時に、保存できるサイズも大きくなってきている。

現在は「1600万画素、かつ 75MByte」までとなっている。4000x4000 なら、ちょうど 16000万画素なのでそのままアップロードできる。(75MByte の制限はあるのだけど)


ただ、この制限に適合するようにアップロードしてくれるソフト、「バックアップと同期」が、Windows / Mac 版しか作られていないのだ。




今までは、Windows 版のソフトを動かし、NAS をバックアップ元に指定して Google にアップロードさせていた。

今回もそれをやったら…これ、ノートにさせるような作業じゃないね?


今まではデスクトップマシンでイーサネット接続だったので、NAS から写真を取得して、リサイズして再圧縮して Google に送信、というタスクを動かしていても気にならなかった。


でも、WiFi 接続だとイーサより遅いし、WiFi の電波帯域は家族で共有しているので迷惑になりそう。

いや、イーサだって共有なのだけど、WiFi を使う機材とイーサを使う機材で棲み分けていた、という感じ。


(その WiFi はイーサにつながっているのだけど、一番通信量の大きい、僕のマシンと NAS の間、というのと、WiFi ステーションとネットワークルータの間、というのは、スイッチングハブによって切り分けられている)




ひとまず、ノートマシンにイーサケーブルつないで凌いでいるのだけど、どうにかしたい。

Linux サーバーはあるので、Linux から Google Photos にアップロードできればいいのだけど…と調べたのだけど、相変わらずそのためのソフトはない。


じゃぁ、Windows を仮想化してサーバーに入れるか。

幸い、メインマシンの Windows はライセンスを購入したもので、PC 付属の OEM ではない。


#PC 付属の OEM 版は、別のマシンで使用することは禁じられている。

 今まで使っていたメインマシンは、もともと Windows 7 マシンだったのだけど、8 にバージョンアップする際にライセンスを購入し、このライセンスは Windows 10 に無償バージョンアップされた。


Windows には「Hyper-v」という仮想化技術があるのだけど、これは実は Xen が開発したもの。

Xen は Linux で生まれた仮想化技術で、現在は KVM に引き継がれている、と考えて間違いない。


#Xen 自体はまだあるのだけど、今から使うメリットはあまりない。


うちのサーバーは KVM が入れてあるので、この上に Windows を入れることは可能だ。


実は、Google Drive 同期とバックアップは、外部の NAS のデータを送信する際は、Windows がスリープして NAS との通信が切断するたびに一時停止する、という問題がある。

まぁ、問題というか仕様なのだけど、仮想化サーバーに入れておけばこの問題も解決する。




というわけで、Windows 仮想化が本命だなーと思いつつ、じつはまだサーバーの整備が終わっていないし、旧マシンもしばらく置いておきたいのでライセンスの関係もあってすぐには仮想化できない。


サーバー整備は、去年から少しづつやっているもの。

Xen サーバーの仮想マシンを KVM に移行したいのだけど、この意向を簡単に行うソフトが曲者で、一筋縄ではいかないとわかってきたところ。


「単純だけど本格運用には不満がある」仮想化マシンなら簡単に移行させてくれるのだけど、本格運用を目指した設定のマシンだと移行できないという…

まぁ、本格運用を目指した、というのは標準的でない設定をたくさん使っているという意味であり、仕方がないことでもあるのだけど。



▲目次へ ⇒この記事のURL

別年同日の日記

02年 OSアップデート!!

05年 夏至祭

15年 生卵と生豚と

17年 連乗機能

18年 ゲームの作り方


申し訳ありませんが、現在意見投稿をできない状態にしています

新マシンセットアップ中  2019-06-09 23:38:37  コンピュータ

▲目次へ ⇒この記事のURL

新マシン…HP Pavilion 15-cs0000 が届き、セットアップ中。


なかなか人気マシンのようだし、まだ「使い勝手」が書けるほど使い込んでもいないのだけど、セットアップ時点で気づいた点を書いておこう。


まず、僕にとっては最悪ともいえる欠点から。

このマシン、タッチパッドに問題がある。


ELAN Clickpad と呼ばれる種別のものらしい。

Windows 10マシンらしく、複数の指を使ったジェスチャにも対応した、それ自体の使い勝手は悪くないものだ。


以前は、タッチパッドの端をなぞるとスクロール、という操作が流行った。

でも、ジェスチャなら2本指で動かせばスクロール。ほかにも指の数や動かす方向で、いろいろな操作が可能。


このジェスチャは Windows 10 標準のものだ。



ただし、ELAN Ckickpad では、細かな設定が一切できない。

不意にズームジェスチャが入ってしまうからいやだとか、タップするとクリック扱いになるのが嫌だとか、普通のタッチパッドではそうした機能を細かく ON / OFF してカスタマイズできるのだが、そういうカスタマイズ性が一切ない。


Windows の設定画面、デバイスから「タッチパッド」を選んでも、設定項目が出てこない。

どうやらここの設定項目はデバイスドライバの責任のようで、使用マシンによって項目が違うらしいのだけど、その設定項目が「感度」以外に何もない。


まぁ、今はセットアップ中なのでタッチパッドを使っているのだけど、常用し始めたら今メインマシンで使っているマウスを奪って新マシンで使う予定。手になじんでいるので。


それまでの辛抱だ、ということで、実は大きな問題ではない。



#ここから、翌日追記


なんてことだ!


ネットでいろんなところ見ていても、「ELAN は設定できない」みたいな書かれ方がしていたのだけど、プリインストールアプリの中に「ELAN TouchPad Setting」というものがあった。


Windows 標準の設定画面ではなく、このアプリを使うことで細かなセッティングができた。


2本指ジェスチャによるスクロールだけではなく、タッチパッドの端をなぞることによるスクロールにも対応している。

これなら、過去の別のマシンから乗り換えた人でも違和感なく操作できる。


しかし、このソフトでも設定できる「感度」だけは、Windows の設定画面でも設定できるようになっている。

ということは、ほかの設定も同じように「設定」画面で可能にして置き、より細かな設定はソフトで…などもできたはずだ。



非常に分かりにくいが、まぁ気づけば問題ないレベルなので、良しとしておこう。


#追記ここまで




画面がノングレア処理されていない、というのは思った以上に見づらいものだった。


ノートパソコンなのに、画面がスマホみたいにツルツルなのね。

スマホなら小さいから気にならないのだけど、画面が大きいので自分の顔が映り込んでいるのがよく見える。


これは、あらかじめ気にしていて、公式オプション品のノングレアシートを一緒に買ってあった。

公式だからと言って高いことはなく、同等品をアマゾンなんかで探しても似たような値段。

ならば、画面サイズに適切に合わせて切られている公式品を買った方がよかろう。


そして…そう、このシートは非常によく、画面サイズピッタリに切られている。

画面の端に合わせて綺麗に張ったつもりでも、最後が画面の枠にあたって、シートが浮いてしまうほどにピッタリサイズだ。


多分、0.5mm 程度の誤差しか許されないんじゃないだろうか。

幸いなことに、静電気と空気圧で吸着するようなタイプで、何度でも貼りなおせる。

そこは心配しないでいい。


そして、3回も貼りなおしたらさすがにホコリが入り、シートがピッタリ貼りつかなくなる。

何度でもはがせるので、ホコリの近くをはがし、セロテープでホコリを取ってやれば大丈夫。


苦労したが、最終的には綺麗に貼れた。



このシート、実際には必須だと思うだけど、価格競争のために少しでも安くするためと、生産現場で貼っていると案外手間がかかるのでシートなしで売っているのではないか、と思ってしまうほど。


#まぁ、最近は画面タッチ可能な機種もあるし、その場合は画面が傷つきやすいので、保護シートを自己責任で貼ってもらう方がよいのだろうとは思う。




キーボード。

感触は悪くない。配置にまだ慣れていないから微妙に打ち間違える、というのは慣れの問題だ。


しかし、キーボード刻印の文字が素晴らしく読みづらい。


キーボードはカッコいいメタリックな仕上げで、バックライト付きだ。

バックライトを点灯すると文字部分が光るやつね。


カッコいいけど、ノートパソコンとして使うには電池を少しでも節約したい、と思ってしまう。

もちろんバックライトは消せるのだけど、消すと先に書いたように読みづらい。


光が透過する部分は、灰色で半透明。半透明ということは、見る状況によって微妙に色が変わるということだ。

ここに、メタリックなキーボード。メタリックということは、見る状況によって微妙に色が変わるということだ。


この、微妙に色が変わる下地に微妙に色が変わる文字、というのが、周囲の明るさによっては致命的に視認性が悪い。


まぁ、キーボード打っているときは手が配列覚えているから、視認性悪くてもそれほど問題ないのだけど。




キーボードついでにもう一つ。


せっかくテンキーがついているのに、num lock のインジケーターランプがない。

なので、数字を入れようとしたカーソルが動いてしまう、なんてこともしばしば。


まぁ、こちらもインジケーターがあったとしても、案外見ていないものなのだけど。


普通は、起動時に num lock を ON / OFF どちらの状態にするかは、BIOS (今時は UEFI か)で設定する。

しかし、Pavilion の BIOS には設定項目がなかった。


(ちなみに、BIOS 起動は昔ながらの F1 や F2 ではなかった。

 shift 押しながら Windows を起動して、Windows の起動オプションからトラブルシューティング→詳細オプションを選ぶと、UEFI の設定がある。)


しばらく使っていて分かったが、どうやら「前回使っていた設定」で起動するようだ。

ということは、これは Windows 10 が制御しているのかな?



BIOS を見ていたら、Function キーをどう扱うかの設定もできた。


出荷時設定では、F1~F12 を押そうと思ったら、Fn キーと一緒に押さないといけない。

通常は、音量変更や画面輝度変更キーとして働く。これはまぁ、ノートパソコンなのでそんなものかな、と思っていた。


でも、設定を変更すると、通常は F1~F12 として働き、Fn キー併用で音量変更、のようにできる。

僕としてはこちらの動作が好みなので、設定を変えた。



キーには、音量変更などの絵が大きく書いてあり、F1などの表記は小さめに書いてある。

これが、先に書いたキーの文字が視認しにくい問題と併さり、どれがどのキーかわからない。


基本的には、数字キーの 1 の上にあるのhが F1 、9 の上にあるのが F9 、という認識でよい。

慣れてしまえば何の問題もなさそうだ。




というわけで、細かな文句はあるのだけど、どれも些細な事。

全体的にはよく出ていると思います。色々調べてそう思ったから買ったのだけど。


一応、ここに書いた「些細な事」は、僕が気になって、でもまぁいいか、と思った程度のことなのだけど、人によっては致命的かもしれないので、これから買う人の参考になれば、と思う。



そして、この文章は、新マシンで書いてみた。

セットアップするだけでなく、ちゃんと使ってみた最初の例だ。


▲目次へ ⇒この記事のURL

別年同日の日記

02年 最終戦略

05年 spring has come

05年 3ヶ月点検

13年 WEB上でのドット絵の拡大

16年 8086 発表日(1978)

17年 計算機の同人誌


申し訳ありませんが、現在意見投稿をできない状態にしています

Alexa Wunderlist 連携  2019-05-29 18:15:08  コンピュータ

▲目次へ ⇒この記事のURL

先日買った Fire HD 10 、Alexa が使えるのが思った以上に便利だった。

声で操作するって、最初は恥ずかしくて抵抗があったけど、料理中などには便利なものだな。


Alexa には「お買い物リスト」という機能がある。Amazon の買い物リストとは別物。

料理中に、ソーセージ使い切っちゃったな、と思ったら「アレクサ、買い物リストにソーセージ入れといて」って頼むと、すぐに入れてくれる。


でも、この買い物リストを家族で共有できない。

Alexa のお買い物リストは、Amazon のアカウントに紐づいていて、本人しか見られないのだ。




Wunderlist は、スマホで作ったリストを家族などで共有できるサービス。

類似サービスはほかにもあるのだけど、我が家ではこれを使っている。


類似サービスには、Alexa に対応していて、そのまま声でリスト追加できるものもある。

でも、Wunderlist は対応していない。


しかし、Wunderlist はメールに対応していて、メールを送ることでリストに追加できる。



さて、IFTTT というサービスがある。

技術的なことはさておき、「いろんな WEB サービスをつなぎ合わせるサービス」だ。


これを使って、Alexa の買い物リストに追加があったら、Gmail を使って Wunderlist にメールを出し、Wunderlist の買い物リストに登録する、という方法があることを知った。


Alexaに買いたいものを伝えて共有の買い物リストに追加


この手法は結構古いらしいのだけど、上のページが丁寧に説明しており、そのまま設定すれば同じことができる。


…とおもったのだけど、やってみたがうまく動かない。


Gmail がエラーで送信できないよ、というエラーメッセージ。

このメッセージで検索すると、設定をこう変えればよい…などの情報が見つかるのだけど、どれを試してもうまくいかない。




IFTTT、3月31日からGmailのトリガーと下書き作成が利用不可に


それで見つけたのが、上のページ。


今はサービス終了した Google+ は、顧客情報が流出する可能性があるバグがあった、というのがサービス終了の決定打だった。

その後、Google はセキュリティを強化する取り組みを行う中で、Gmail を外部から操作できるようにしていたのを見直す、そのため IFTTT でも使えなくなる、という内容。



でも、ここでは「トリガー」が使えなくなるとしているだけ。

トリガーというのは、「メールが届いた」とか、状態変化を伝える機能のことで、「メールを送る」などの実際の動作を行う機能とは違う。


今回は、Gmail を使ってメールを送りたいだけなので、これとは関係ないはず。


さらに調べていたら、ちゃんと IFTTT のサイト内でこんなメッセージを発見。



Gmail actions may fail for some users.

Identified - The issue has been identified and a fix is being worked on. It will require a large rework in how Gmail is implemented, we appreciate your patience as we get Gmail up and running for everyone.

May 15, 16:51 PDT


意訳:

一部ユーザーで、Gmail でエラー

認識 - 問題は認識され、修正中です。Gmail の実装に大きな変更が必要なので、誰もが Gmail を使えるようになるまで、しばらくお待ちください。



つまり、僕のせいではなくて IFTTT 側の問題だったわけだな。

どんなに設定を見直しても無駄なわけだ。


「しばらくお待ちください」となっているが、もう2週間もこの状態のままのようだ。

いつ復帰するのかわからない。



上記調査中に、他にも気になることを見つけた。

IFTTT と Gmail と「日本語」の組み合わせを使うと、頻繁に文字化けするようなのだ。


IFTTT は基本的に英語サービスであり、日本語は「使える」が「保証されない」。

ここに、先に書いた Gmail 側の大変更なども加わり、日本語が化けるようになっては修正される、というのを時々繰り返している。


先に書いた、現在動かない件も含め、今後もこういうことがたびたびあるのかもしれない。




というわけで、不安定な Gmail に頼るのはやめよう。

幸い、Gmail 以外にも、普通の Email を使うこともできる。


ただ、Gmail では「誰にでも」送れるのに対し、Email は「自分にだけ」送れる。

Email の仕組み上、誰にでも送れてしまうと SPAM の発生源となるからだ。


自分にだけ送る、というのも、一度 Email でシステムがランダムな数値を送り、その数値を答えて認証を通さないといけない。

確実に自分向けの Email だと証明できた時だけ、自分宛の Email を自由に送れるようになる、ということだな。


そうなると、wunderlist 宛にメールすることはできないわけだが、幸い僕は自分のメールサーバを持っている。

届いたメールを、wunderlist 宛に転送しよう。



現在僕はサーバーで qmail を使っている。

qmail には、拡張メールアドレスと呼ばれる機能がある。


たとえば、ユーザー nobody のメールアドレスが nobody@example.com だったとしよう。

このとき、qmail では、nobody の後ろにハイフンと文字列を付けた nobody-ifttt@example.com もユーザー nobody に届くのだ。


しかも、この「届く」というのは、単にユーザーのメールボックスに届くのとは意味が違う。

同じメールボックスに入れる指示もできるけど、別のメールボックスに入れたり、片方だけプログラム処理したりもできる。

サーバーの時点で、ちゃんとメールを仕訳けてくれている。



自分のサーバーに qmail を入れている人には説明するまでもないのだけど、自分のホームディレクトリに


.qmail


というファイルを置くと、その内容によって自分宛のメールをどのように扱うか指定できる。


.qmail-ifttt


というファイルを置けば、自分のアカウントの後ろに -ifttt を付けたアドレス宛てのメールを処理できる。

ここに、次のように書く。


|sed 's/^From:.*$/From: nobody@example.com/' | /var/qmail/bin/qmail-inject me@wunderlist.com


メールボックスに入れるのではなく、このプログラムにメールを渡せ、という指示だ。

ここで、簡単なフィルタプログラムを書いている。


まず、From 行を書き換える。そしてそれを me@wunderlist.com に送る。



このままでは、実はヘッダに書かれた To: が自分のアドレスのままだ。

でも、wunderlist.com の方では、To: は気にしないようだ。


#メールは、「ヘッダ」と「封筒」に宛先を書ける。配信は封筒のアドレス宛てに行われるので、

 ヘッダのアドレスと配信アドレスが違うことはあり得る。


wunderlist.com の方には、僕のメールアドレスが確かに自分のものであることを事前に認証させてある。

このアドレスはヘッダの From: に書かれたものを認識するようなので、こちらは書き換える必要がある。



これで、IFTTT からのメールは、無事 wunderlist に転送され、リスト項目が追加された。




海外では、個人が作った alexa スキルで、wunder shopping というものがあるようだ。

IFTTT で Gmail が使えないのであれば、自分で Oauth 認証を通して連携させられないか…と方法を探す中で発見した。


これが日本語対応してくれれば、ややこしいことなしで wunderlist と連携できる。

でも、個人の制作物だから、対応は望めないだろう。


しかし、wunderlist との連携スキルを作ることは可能だ、と示されているわけでもある。

いっそのこと自分で作ってみるか…とまで考えた。


その時に、ふと「自分にメール送れるなら、転送すればいいんじゃん」と気づいて、上のような設定になった。

alexa スキル作成は、面倒くさいのでやらない。


でも、誰か作ったら使いたい(β版で人柱やってもいい)ので、教えてください。


▲目次へ ⇒この記事のURL

別年同日の日記

02年 PHS解約

04年 ピクミン2攻略終了…?

13年 水疱瘡

15年 8bit 時代のグラフィック

17年 チャナダル


申し訳ありませんが、現在意見投稿をできない状態にしています

Nexus7 (2012) 復活  2019-05-20 14:54:10  コンピュータ

▲目次へ ⇒この記事のURL

2度目の復活。不死鳥のように甦る。


Nexus7 (2012) は、2012年発売の 7inch Android 端末だ。

さすがに8年も前の端末なので、今時使い物にならない…


と思って、先日代替機として Amazon FireHD 10 を購入したのだ。

そして、代替機が手に入ったので、Nexus7 はお役御免、「捨てても構わない」機械になった。


じゃぁ、捨てる前にダメもとで遊んでみよう。

…そうしたら、使える端末に復活してしまった。





ちなみに、「2度目」と書いたが、1度目の復活は1年前だ


一度は、遅すぎて使い物にならない、と思ってほったらかしになっていた機械を、ダメもとで復活させたら案外使えていた。

しかし、1年使っていたら、やっぱり使い物にならなくて、代替機を購入した、という流れだ。



1度目までの経緯を説明しよう。


Android は現在広く使われている OS だが、最初は「スマホ用」の OS だった。

タブレット端末で使うことは想定されていなかったのだ。


当時、スマホ用には Android 2 系列が使われていた。

これに対し、Google はタブレット用の「別バージョン」として、Android 3 を作る。

3 は 2 の後継ではなく、違う機能を持つ別バージョンだった。


しかし、Android 4 では、2 と 3 の両方の機能を持つ形で統合される。

ここに、現在のように幅広く使われる Android の基礎が出来上がる。


そして、これを広く宣伝するように Google が販売した「戦略機種」が Nexus7 だった。

世界初の Android 4 搭載端末で、当時の一般的なタブレット価格から見ても、驚くような低価格設定だった。


Nexus7 は大ヒットとなり、翌年には改良機種が出る。

僕は初代を買ったので、Nexus7 (2012) と書くが、この書き方は (2013) もあるためだ。



さて、「世界初の Android 4」は、初物であるがゆえにバグが多かった。

頻繁にバージョンアップされ、最終バージョンの 4.4.4 まで進み、さらに 5 系列も提供された。


しかし、5系列も真っ先に投入されたため、またバグだらけだった。

これがひどいもので、まともに使えないほど動作が緩慢だった。


頻繁にバグ修正が行われ、5.1.1 まで行ったのだが、Nexus7 (2012)のバージョンアップはこれで終了。

使い物にならないほど緩慢なままだったので、我が家では使わなくなってしまった。



そして1年前。

5 系列が緩慢なら、4 系列に戻して使ってみよう、ということで 4.4.4 に入れなおした。


ちなみに、Android の宿命として、「バージョンアップ」を提供する仕組みはあるが、バージョンダウンは難しい。

Nexus は Google 製で、開発にも使われることを想定しているため、それなりの知識があれば好きなバージョンに戻すことができる。


4.4.4 にしたら、動作が軽快になった。

古い機械なのでパワー不足は感じるが、それなりに使える状況に戻ったので使ってきた。


ところが、1年使ったある日、急によく使っていた Radiko アプリの動作が遅くなった。

やはりパワー不足か、とあきらめて代替機を先日買ったのだ。



代替機購入の際の日記には、「Radiko のアプリ動作が緩慢になったのは、Radiko のシステム更新が原因ではないか」と書いた。

しかし、これは今はちょっと違ったかな、と思っている。後で詳細書く。




さて、今回やったこと。


僕が知らなかっただけで、1年前に「復活」させた時点では、今回の方法がすでにトレンドになっていたようだ。



使いものにならないほど遅かったNexus7改善計画

Nexus 7 (2012)をAOSP 7.1.2にアップグレード


今回は、上に書かれた2つのページを参考にして、ほぼ同じことをした。



1ページ目は、Nexus7 が Android 4.0 だったころのバグの影響が後まで残り、速度低下の原因になっている…

という指摘。ただ、あとで考えると事実誤認が含まれるように思う。これは後で説明する。


事実誤認があっても、1ページ目は2ページ目の作業を行うための「事前準備」のやり方を、懇切丁寧に教えてくれる。

目は通すべき。最終結論である「Trimmer アプリの実行」も、おまじないとしてやっておいて損はないと思う。

(多分、まったく無関係なのだけど、害はない。やって何か改善したら儲けもの)



2ページ目は、非公式ではあるが、Android 7.1.2 を入れてしまおう、というもの。

非公式とはいっても、もともと Android はオープンソース…プログラムが公開され、誰でも改造できるものだ。


そこで、正式な 7.1.2 を元にして、有志が Nexus7 (2012) に対応したバージョンを公開しているので、それを入れる。


7 は、5 よりも「最適化」が進んでいる。つまり、プログラムの無駄が省かれている。

そのため、5よりも軽快に動く。



これが非公式版で、Google が著作権を持つアプリは入っていない、ということも大きいと思う。


一般に、Android 端末を購入すると、Google 製のアプリがたくさん入っている。

場合によっては、それと同等の機能を持つ、端末メーカー製のアプリもたくさん入っている。


そして、それらは消すことができない。

場合によっては動作を止めることすらできず、CPU の速度とメモリを無駄食いする。



しかし、非公式な Android には、Google が著作権を持つアプリを同梱することが禁じられている。

…いや、Google アプリが入れられないわけではない。禁じられているのは「同梱」だけで、再配布は許可されているから。


逆に言えば、非公式 Android なら、公式なものと違って、必要最低限のアプリだけ入れるようにできる。

すると、不要な機能が動かないので動作が軽快になる。


もっとも、何が不要かは人によるだろう。

僕が軽快だと感じていても、他の人には「機能不足で使えない」と思う可能性もある。




2ページ目として紹介したページ、そのページが書かれた時点での「最新版」の 7.1.2 を使用している。

しかし、現在ではもっと新しいものがある。


紹介ページでは「2018/12/05 ~の掲示板」となっている箇所のリンク、実は掲示板の名前は、時々更新される。

現在は、日付部分が 2019/05/05 となっている。


そして、その掲示板の一番上に、最新バージョンのバイナリが置かれているので、それを取得しよう。


バージョンが違っても、どれも 7.1.2 だ。これは、「Google がつけた Android の」バージョン番号。

日付の違いは、それを Nexus 7 で動くように移植作業をした際のバージョン違いだ。


どうも、バグ取りも行われているが、セキュリティアップデートに追随するのが目的のようだ。




Nexus7 (2012) には、WiFi 版と 3G 対応版の2機種があり、名前は同じだがハードウェアが違う。

WiFi 版は Grouper 、3G 版は Tilapia というコード名がついている。どちらも魚の名前だ。


僕は Grouper の OTA-Package バイナリを選ぶ。WiFi 機種だからだ。

そして、Open GApps のバイナリも必要とする。


GApps とは Google Apps 、つまりは Gmail や Chrome などの Google 製アプリこのことだ。

Nexus7 は ARM なので、ARM - 7.1.2 - pico を選ぶ。


pico の部分は好みで変えてもいい。pico は最小セットだ。不要なものが一切入らないので動作が軽い。

その後、必要なものがあれば Google Play Store で入手すればいい。



これで、特に問題もなく、7.1.2 にすることができた。快適に動作する。

…いや、さすがに8年前のマシンなので、反応がちょっと遅い感じはあるよ?

インタラクティブに使うのは、ちょっと辛いかも。


でも、Youtube 見たり、Radiko 聞いたりといった「ストリーム再生」には問題がない。

Chrome 検索して、静的な(ゲームとかではない)ページを閲覧するのにも問題はない。




ところで、Radiko は最新版だと動かない。

旧バージョンがあるので、5.0.6 を入れると動く。

…なんか怪しげなサイトだけど、合法だと書いてあるのだから、大丈夫なのだろう。



Radiko はバージョン 6 以降でないと、タイムフリー(1週間以内ならいつでも聞ける)に対応していない。

と同時に、この機能が強力なので、放送データを録音したりできないように、動作する OS 環境がおかしなものでないかなど、厳しいチェックが入るようになったようだ。


Nexus7 (2012) で 7.1.2 なんて、「おかしい」以外の何物でもない。

最新の Radiko が動かないのは仕方がないところだろう。


#でも、先日買った Amazon Fire HD には Radiko 最新版入れられたな…

 Amazon Fire で Google Play Store アプリを入れるとか、おかしいのだけど。




さて、途中で書き逃していることを説明する。

まず、先に書いた「Trimmer には意味がなさそう」について。


SSD には TRIM という仕組みがある。

なぜ必要かは長くなるので自分で勉強してもらおう


ただ、この仕組みは最初からあったわけではないと知っておいてほしい。

当初、SSD は HDD の互換品として作られ、後に性能を上げるために TRIM という独自の仕組みが取り入れられた。



ところで、Linux という OS がある。

HDD で運用する前提で作成された OS で、いまは SSD でも使えるようになっている。


ここで、TRIM は OS そのものの仕組みとしては提供されていない。

OS 上で動作する別アプリケーションとして TRIM 動作を行うだけのものがあり、それを定期的に動かす仕組みだ。


このように機能を分離することで、OS 本体の方に HDD と SSD の違いなどを入れる必要がなくなり、プログラムが複雑になるのを避けられる。



そして、Android の中身は Linux だ。

Android は HDD を搭載しない… SSD 運用が普通なので、定期的に TRIM する必要がある。


しかし、Android 4.0 は、この「定期的な TRIM 」が動かないというバグがあったそうだ。


OS 本体が対応しないなら、アプリとして対応してやればよい。

Trimmer はそのためのアプリで、OS 内部にちゃんと持っている TRIM アプリ (fstrim という)を起動してくれる。


でも、4.0 でなければ fstrim はちゃんと起動される、らしい。

先のページがさらに参照しているページでは、「4.0 の時におかしくなったセクタが戻らない」と説明しているのだけど、fstrim の仕組みでは、そんなことにもならない。



だから、4.0 でなければ Trimmer はいらないと思う。





じゃぁ、なんで 4.4.4 を使っていても、1年の間にだんだん遅くなってきたのか、について。

Radiko のせいだと思っていたが、どうも冤罪だという件だな。


単純な話で、1年使う間にキャッシュがたまってしまったのではないか、と思っている。


前回も今回も、OS を入れなおしてすぐは、「快適動作」と感じている。

前回は、それから1年かけてだんだん遅くなっていった。


これは、入れ直しによって自然にキャッシュはクリアされてしまい、使うことで溜まっていったからではないか、という推論だ。



またしばらく使ってみて、また重くなることがあれば、まずはキャッシュクリアを試してみよう。

そうなった時には、またお知らせしたいと思う。



▲目次へ ⇒この記事のURL

別年同日の日記

02年 5/20

05年 美味しいケーキ屋さん・その後

07年 ぞうが かわに おっこちた

13年 桑の実


申し訳ありませんが、現在意見投稿をできない状態にしています

パソコンは買ったのだが…  2019-05-14 17:51:09  コンピュータ

▲目次へ ⇒この記事のURL

先日、パソコン壊れた、と書いた。

7年も使っていたマシンで、以前から時々調子が悪かった。



さすがに仕事のメインマシンが壊れるのは困る。完全に壊れる前に買っておこう、と早速注文。

今使っているマシンは DELL だが、7年前は DELL はダントツにコストパフォーマンスが良かった。


しかし、今調べると DELL も悪くないが、HP もいい感じ。

実は、半年前には妻がメインマシンを買い替えていて、調べた結果 HP にしている。



僕も HP に決定。

CPU 性能は低くてもいいが、メモリは多くほしい。

仕事柄、サーバーに接続して使う端末になりがちなので、CPU 性能はそれほどいらないのだ。

しかし、Chrome で同時に何ページも開いたりするので、メモリは食う。


あと、メインストレージは SSD がいいのだけど、SSD だけではさすがに足りない。

HDD と同時搭載がいい。


DELL の安いマシンは、SSD のみでメモリ増設もできない、というものが多かった。

少し高級機種になると、SSD+HDD でメモリも増設可能、というのがある。

しかし、それは高級機種なので CPU も i7 で、高い。


これに対し、HP は CPU が i5 のまま、SSD+HDD メモリ増設が選べた。

そんなわけでそちらを選ぶ。




「令和改元セール」を銘打って安かったのも後押しした。


ところが、だ。

さんざん比較してよいマシンというのは、他にも良いと感じる人が多いようで、注文殺到だそうだ。


5月7日に注文してすぐに「在庫がなくなってしまい、出荷時期のめどが立っていない。もう少し待ってほしい」というお詫びのメールが来た。


それから2日置いた5月9日、再び「納期に関するご案内」というメールが来た。

納期が決まったか、と思って開くと、「出荷のめどが立たない」というお詫びだった。


まぁ、仕方がない。

今のマシンは調子が悪いというだけでまだ使える。気長に待とう。



…とおもっていたら、スリープして再起動したときに、回復不可能なエラーが出て止まった。

再起動したらちゃんと動いたのだけど、やっぱりこのマシン不安だ。速く新しいマシン来ないかな。




で、先ほど、またメールが来ていた。

「納期に関するご案内」…やはり「出荷のめどが立たない」だった。


前のメールから5日、注文からは1週間たったので、現在の状況を報告ということだろう。

ただ、文面は少し変わっていて、「納期が決まり次第メール連絡、また、納期が決まらないまま4営業日立った場合もメール連絡」と確約している。


人気があって商品がない、というのは仕方がない。

その際の対応として、現在の状況を逐一知らせるというのは、対応としては及第点だろう。



一応、前のメールから、まだキャンセルは可能であること、急ぎの場合は即出荷モデルも提供できることも書かれている。


僕としては、また7年くらい使ってしまうだろうから、ここで妥協して別モデルにしようとも思っていない。

今のパソコンは調子悪いとはいえ十分使えているので、気長に待つことにしよう。


▲目次へ ⇒この記事のURL

関連ページ

洗濯機壊れた【日記 19/05/17】

別年同日の日記

02年 5/13

04年 ピクミン・訂正

07年 保育園の遠足

13年 ケミクエ改良ルール・策定中

15年 ジョージ・ルーカス 誕生日(1944)

15年 ルーカスの作ったもう一つの会社


申し訳ありませんが、現在意見投稿をできない状態にしています

続:Minit  2019-05-08 18:01:10  コンピュータ

▲目次へ ⇒この記事のURL


先日、Nintendo Switch 用ゲーム Minit の話題を書いた。

ゲーム的には「初代ゼルダの伝説のような」ゲームなのだけど、クリアしてみて、これはピクミンのように「ゲーム中での最短時間を目指すものだ」と思った。


ピクミンは、「1日」の概念があるゲームで、その日の終わりにはすべてを終了して撤収する必要があった。

その状況下で、できるだけ少ない日数でクリアを目指すゲームだった。


それに対し、Minit は「1分」で強制的に作業が中断され、スタート地点に戻されてしまう。

ゲーム終了時に、スタート地点から出発した「スタート回数」が表示されるので、この回数を減らすことを考える。




まずはヒントなしで…と頑張って、冒頭に書いたスクリーンショットを得た。

12回。もっと減らすことができるポイントはわかっているのだが、それをやるのはかなり難しそうに思う。

ひとまずはこんなところだろう。


じゃぁ、答え合わせをしよう。

すでに発売されて半年たつゲームだから、そういう攻略記事もあるだろう、とネットを探してみる。


…全然見当たらない。この遊び方、誰もしていないのか?


スクリーンショットにもわかるように、下に所要時間がかかれている。

こちらの時間を競う RTA (Real Time Attack)の方が盛り上がっているようだ。




現時点では、エンディングに表示されるゲーム内時間で 6分53秒43、というのが最高記録のようだ。


RTA では、時間短縮のために自殺するのはかまわないので、回数は 14回。

動画も見てみたが、これはこれですごいのだけど、回数短縮の参考にはなりにくい。


ただ、知らない時間短縮テクニックを知ったので、これを使えばもう少し時間短縮できそうだ。


#砂漠のオアシスって、ずっと遠くにあるのだと思っていた…

 砂漠での「画面切り替え回数」が重要で、距離ではないのね。



さらに探してみると、やはり回数記録に挑んでいる人はいるようで、「10回」でのクリア方法解説を見つけた。


この解説で見る限り、上に書いた時間短縮テクニックを使っているようだ。


#そのオアシスが遠いので、そこにいる敵を倒して戻る、は不可能だっと思っていた。

 それだけでスタート1回分を使っていたのだけど、それを減らせれば大きい。



そして、この解説では「最低9回でクリアできるけど、難しいので10回を目指そう」という形で書かれている。


なかなかこういう記事が見当たらないと思ったら、もう発売から1年近いゲームなので、みんなこの段階は通り過ぎて RTA に行っているのだな。



まずは10回を目指すか…。

難しそうではあるが、独力でも12回を達成できたのだから、無理ではない気がする。




しかし、疲れたのでいったんハードモードをのんびり遊んだ。


ハードモード難しい。でも、何度死んでもいいや、というつもりでやっていれば、何とかなる。

クリアできた。



そして、「マリーモード」が現れた。

マリーは、ゲーム中にヒントをくれる幽霊の名前。マリーモードでは、主人公がこの幽霊になっている。


そして、幽霊なので死なない。自殺はできるけど、1分の時間制限はない。

そこで「最短スタート回数」を目指してプレーした。当然、1回のスタートで最後までクリアできた。


#時間制限がないとはいえ、敵との戦闘はある。

 普通は死んだらダメージ回復になるので、マリーの1回クリアはミスが許されない、という意味でもある。



ハードモードのアイテムをまだコンプリートしていないので、それをやってから10回に挑戦…かな?


▲目次へ ⇒この記事のURL

別年同日の日記

13年 ケミストリークエストの問題点

13年 ケミストリークエスト改正案

15年 八景島シーパラダイス 開業日(1993)


申し訳ありませんが、現在意見投稿をできない状態にしています

Minit  2019-05-04 18:12:17  コンピュータ

▲目次へ ⇒この記事のURL

ゴールデンウィーク前の話なのだけど、ニンテンドーポイント(ゴールド)が4月末に失効するよ、というお知らせが来た。


何か買ったりすると付くポイントで、ゴールドは1ポイント=1円で任天堂商品の購入などに使うことができる。


ちなみに、プラチナポイントというのもあるのだけど、こちらはゲーム内でバンバン配布し、ゲーム内以外ではあまり使い道がないゴミみたいなものだ。


で、失効するゴールドポイントは 150ポイントだったのだけど、せっかくなので全保有ポイントを調べたら 937ポイントあった。

500円程度のダウンロード販売のゲームを買ってもよいかも。いや、少しお金出して 1000円くらいのものを買った方が楽しめるか。




というわけで、いろいろと悩みながら「Minit」というゲームを買った。


Switch 版は昨年夏に発売になっているし、それ以前に PC 版で販売されている。

だから「今更」感のあるゲームだろう。


しかし、なかなか面白かった。

というか、一通り解き終わった後で「これからが本番だ」と気づき、今一生懸命遊んでいる。



まずはゲームの説明だ。

ネットを探せば宣伝動画などもあるので、そちらを見たほうがわかりやすいけど。



まぁ、初代ゼルダの伝説タイプのアクション RPG だと思いねぇ。

ただし、主人公は呪われていて、60秒たつと死んでしまう。


死ぬとセーブポイントから再スタートになるが、死ぬ直前までに「世界に影響を及ぼす」行為をしていた場合は、その影響は残ったままになる。



以上。シンプルだが、それだけのゲームだ。

ゼルダと同じように、画面切り替え型で広い世界を探検する。

ゼルダと同じように、剣を前に突き出して敵を倒したり、障害物を壊したりできる。


ゲーム画面は白黒のドット絵だ。ゲームボーイみたい、というとほめすぎ。

ゲームボーイは白黒4階調だったから、このゲームの画面よりももっと美しい。


しかし、この白黒画面が、ゲームを面白くするためによく考えられているのだ。




60秒で死ぬまでに、世界に影響を及ぼせばいい。

だから、ひたすらいろいろなことを試してみて、何が起きるのか探す必要がある。


洞窟を見つけて入ってみるが、真っ暗で何もわからない。

どうやらライトが必要なようだが、どこにあるのかわからない。


灯台を見つけたが、鍵がなくて入れない。冒険していたら鍵を手に入れ、灯台に上ってみたらライトが置いてあった。


世界に影響があるのは、上の例でいえば「鍵を手に入れる」「ライトを手に入れる」など。

基本的に得たアイテムは死んでもなくならないし、切り開いた道などもそのままになる。


一方で、倒した敵などは死ぬと復活する。動かせるものも、死ぬと元の位置に戻ることが多い。


何よりも一番影響があるのは、「セーブポイントに入る」ことだ。

基本的には、ベッドが用意された家がセーブポイントになっていて、死んだときは「最後に入った」セーブポイントに復活する。


世界には何カ所かのセーブポイントがあり、そこを中継地点とすることで広い世界をくまなく冒険することができる。



このゲームの中にはパズルが多く、障害物の動かし方などに失敗すると詰んでしまうことがある。

また、袋小路の行き止まりもあり、そういう場所にはアイテムが置かれているのだけど、アイテムを取った後脱出することができない場合がる。


まぁ、時間切れになれば死んでセーブポイントに戻るのだけど、B ボタンを押せばいつでも自殺できる。

この「自殺」は、遊び方によっては非常に重要なポイントになる。…ようだ。




さて、先に「白黒画面がゲームを面白くする」と書いたのだけど、白黒でも古臭い感じはしない。

アニメーションがやたらと滑らかだからだ。ファミコンやゲームボーイの時代なら、こんな滑らかなアニメーションは作れなかった。


しかし、色がない、ドットも荒いというのは、情報が極端に少ない。

…ここが重要だ。世界を冒険するときに、初めて見たものの意味が分からないのだ。


もしくは、意味が分からないがゆえに、「そこにあるものが見えていない」ともいえる。

意味が分かるのは、それが重要アイテムだと認識されて以降だ。


つまり、このゲームは世界に影響を及ぼすためにアイテムを捜し歩くゲームなのに、そのアイテムは入手するまで「見えていても気づかない」ことが多い。


なんて巧妙な隠し方だろう。

ちゃんとヒントを見せているにも関わらず、それがヒントだったとわかるのは謎を解いた後なのだ。



「こんな隠し方、わかるわけないよ! 不条理だ!」と怒りたくなるのはクソゲーの条件だし、そう怒りたくなる場所が随所にある。

しかし、あとで見直してみると、明らかにわかるように置いてあるのだ。気づかなかった自分が悪い、と納得するより他にあるまい。


ちなみに、もし気づかなかったとしても、あまり問題はない。

必須アイテムは比較的楽に入手できるようになっていて、巧妙に隠されているのはコンプリートを楽しむオマケ要素だから。




ところで、このゲームのとあるところに、謎のメッセージが置かれている。


???

???

???


と、ハテナマークが並んでいるだけなのだ。


一度クリアした後、続きを遊び始めた。

アイテムのコンプリート要素があるので、ゲームをクリアした後でも、そのセーブデータで遊び続けることができる。


そこで気づいた。一番上の ??? に、「ノーマル:243」って入っている。


ん? これはなんだ? その時は気にせず遊んでいた。

そして、アイテムコンプリートが難しいので、気を取り直してもう一度最初から遊んでみた。



最初から遊びなおした理由は、設定画面の中に「スピードラン」という項目があるからだ。

初期設定では OFF になっているが、ON にしてゲームを始めると、ゲーム開始からの1/100秒単位の通算時間カウントが画面上に表示される。


つまり、これはやるべきことを効率よくやって、タイムアタックをするゲームなのだな、と認識したのだ。



2回目は、謎を全部知っているので35分ほどで終了することができた。

(ちなみに、最初のプレイは1日1~2時間で1週間程度、通算では5~6時間くらいかかっていると思う)


で、そのあと気づいた。??? に書かれていた 243 が、44 に減っている。

この 44 というのは、クリアまでに「死んだ回数」だ。



ここでやっと気づいた。

このゲーム、スピードランもできるけどそれはオマケ要素で、作者が一番やってほしいのは「少ない死に回数でクリア」なんだ。




現在死に回数を減らすべく、冒険の手順を組み立てている。

1分間にできるだけ多くのことを詰め込まなくてはならない。


最初の一分は何度もやったので、もう動きが確定している。

先ほど書いた例の「灯台に上ってライトを取る」ところまでは、最初の1分で可能だ。


ちなみに、初回プレイではそこまでに10回以上は死んでいたと思う。


それ以降は、大まかにやることは決まっているのだけど、まだ無駄のない動きというのがわかっていない。

現時点でのベストスコアは21回だけど、まだ無駄が多いので20回を切るのは余裕だろう。


最終的にどのくらいまで切り詰められるのかはまだ見えていない。



そして思った。

この作業、ピクミン1の楽しかった部分だ


やるべきことはわかっている。

でも、手順の一部には前後の入れ替えが可能な部分がある。


そうした部分を調整しながら、区切られた時間を最大限に使う方法を考える。

小さなパズルを解き、その答えを大きなパズルの一部としながら、大きなパズルを完成させていく。

状況次第では、小さなパズルの答えを一度壊し、再度組みなおすことで大きなパズルがより完成に近づく場合もある。


ピクミンと違い、途中までできたところでセーブデータをコピーして保存して次に挑む、ということができない。

最後まで通しでやらないといけない「一発勝負」なので、解き方は再現性が高い、偶発性を排除した方法であるのが望ましい。


一方で、ピクミンと違い、全部通してやっても30分以内だ。

気軽にチャレンジしやすい。何度も繰り返すことで見えてくる攻略もあるだろう。




実はこのゲーム、ハードモードもあるのだけど、まだハードモードはクリアしていない。

ハードモードは、名前の通りハードだ。難しい。

ノーマルモードの徹底攻略と、ハードモードのクリアのどちらを優先すべきかわからないのだけど、とりあえず「楽しい方」を遊んでいる。



▲目次へ ⇒この記事のURL

別年同日の日記

13年 記事の更新


申し訳ありませんが、現在意見投稿をできない状態にしています

ServiceWorker と indexedDB  2019-05-03 12:36:56  コンピュータ

▲目次へ ⇒この記事のURL

「ゴールデンウィーク明けにはリリースしたいので、その前までにお願いね」


と言われていたプログラム改良があった。

その改良は、ちゃんと四月半ばまでに仕上げた。


WEB ブラウザ側で動く Javascript のプログラムだったのだけど、同時にサーバー側も変更することになっていた。

サーバー変更は僕の仕事ではなかったのだけど、そちらが間に合っていない。


急遽、Javascript 側で何とかできないかと、ゴールデンウィーク直前に ねじ込まれた。




目的は、URL の一部隠蔽だ。

ブラウザ側プログラムの改良により、画面遷移が一段階へり、目的画面の URL が変わることになった。

この URL にはセッション情報が含まれており、見えているのが好ましくない。


そこで、セッション情報を URL に入れるのではなく、POST にするか、Cookie にするなどして、消すことになっていた。

つまり、これらはサーバー側の改良だ。


それができなくなったので、Javascript 側でどうにかならないか、というのが、追加の依頼だった。

セッション情報はややこしい文字列になっているので、長い時間表示されているのでなければ、一瞬なら出てもよいという。


つまり、セッション情報付きの URL でアクセスしてから、取得したページの Javascript の中ですぐに URL を変更し、消せればいいということだ。


ただし、該当ページは都合上、時々リロードする場合がある。

セッション情報なしではサーバーにアクセスできないので、リロードする際にはすぐに URL を元に戻したい。




URL を変更するのは簡単だ。history.replaceState 関数を使うと、現在アクセス中として表示されている URL を変更することができる。

いわゆる ajax …画面遷移を伴わないサーバーアクセスを行うようなプログラムで多用されているテクニックだ。


だから、セッション情報がない URL にすることはできる。

この時に、本来の URL を変数に保存しておいて、リロードの際に元に戻せればいいだろう。



しかし、javascript に「リロードイベント」というのは存在しない。


#イベントとは、「何かが起きた」とプログラムが知ることができる、概念上の存在。

 Javascript では、特定のイベントに対してプログラムを紐づけることができ、紐づいたプログラムは、イベントが起きると自動的に実行される。

 これにより、イベントが生じたらプログラムを動かす、ということが可能になっている。



リロードされたかどうかを知る方法はあるのだが、それはリロードされた「あと」のページで検知できるだけだ。


そして、リロードの際には表示している URL にアクセスが行くので、そのままではセッション情報がないためにサーバーから拒否される。

リロード「あと」のページの表示自体が行えない状態で、リロードに伴う不都合をこの方法で解消することはできない。



「ページが終了した」というイベントはある。unload イベントだ。

しかし、Javascript プログラムの寿命は、そのページが終了するまでだ。


そのため、unload イベントにプログラムをセットしておいても、実行されることはない。



実行されないんじゃ意味ないじゃん、ってことで、beforeunload というイベントもある。

「unload の直前」というイベントだ。


よく、「ページを離れてもいいですか?」というダイアログが表示されるのは、このイベントの時に動くプログラムによるものだ。



このイベントは、次にアクセスする URL が決定し、新しいページの取得準備が整うと呼び出される。

つまり、このイベントの中で URL を書き換えても、すでに URL は決定していて意味がない。


このイベントでできることは、新しいページへの移行を中断し、今のページに居続けるかどうかをユーザーに問いかける、ということのみだ。




そんなわけで、ブラウザ側の Javascript で解決するのは無理とわかった。


でも、まだ最後の望みがあった。

一般に「ブラウザ側の Javascript」というのは、WEB ページに付随するものだ。


しかし、最近のブラウザには、WEB ページではなく「ブラウザに」Javascript を登録し、動かす方法があるのだ。



ServiceWorker という。


Chrome/FireFox では早くから実装され、便利なので使いたいプログラマも多かったのだけど、Safari ではなかなか実装されなくて使いどころが限られていた。


昨年、やっと Safari も対応したので、使われる局面が増えてきている。


これを使うと、WEB ページがサーバーに問い合わせた瞬間に、そのリクエストを横取りして、Javascript がサーバーの「ふりをして」返事を返したりできる。


だから、オフラインなのにキャッシュしておいたデータを渡したり、逆にサーバーにデータを送ろうとしたときにキャッシュしておいて、あとでオンラインになった時にこっそり送信したりできる。


Google Docs がオフラインでも使えるのはこの仕組みを使っているからだ。


Android では、この仕組みを使って WEB ページを「アプリ化」することもできる。

WEB ページに行くと「このページをインストールしますか?」と促され、インストールを選ぶとホーム画面にアイコンが現れる。


このアイコンをタップすれば、いつでも WEB ページが提供する機能を使える。

Google Docs の例と同じように、適切に処理されていれば、オフラインでだって使える。



Service Worker の利用例は、多くは「WEB を オフラインでも使えるようにする」のと、それをさらに拡張した「アプリ化」だ。

だけど、先に書いたように、サーバーへのリクエストを横取りして、いろいろなことができる。

キャッシュデータを渡してオフラインでも動くようにする、というのは代表的な応用例にすぎない。



これなら、リロードの問題を解決できそうに思えた。

…一筋縄ではいかなかったのだけど、実際解決できた。




基本戦略はこうだ。


・WEB ページ側で、history.replaceState を使って URL を一部削除。

 同時に、削除前の URL を ServiceWorker に渡して、データ保持。


・サーバーへのアクセスが生じた際、それが URL を一部削除したものだと判明したら、

 保持していた本来の URL にアクセスし、そのデータを WEB ページ側に渡す。



実験過程を端折るが、実際にこの流れを作ったらうまく動かなかった。

WEB ページ側で動いている Javascript は、内部でセッションデータを使用していたのだ。

(僕は途中から参加して改良してきただけなので、そうした部分があるのを知らなかった)


だから、サーバーアクセスの際の流れを少し変えることにした。


・サーバーへのアクセスが生じた際、それが URL を一部削除したものだと判明したら、

 保持していた本来の URL にリダイレクトする指示を作り出し、WEB ページ側に渡す。


リダイレクトが挟まるので、WEB ページ側としては少し動作が遅くなってしまう。

しかし、一度本来の URL に戻ってからリロードすることになるので、内部で動作するプログラムでも

URL に入れたセッションデータを使えることになり、問題は出なくなる。



さて、実際に作る上では、いくつか問題があった。

一番重要なのが、Javascript の生存期間だ。


WEB ページでは、そのページが存在する間、Javascript が生存する。

変数などもこの間は保持されるので、データ保持も変数に入れればよい。


しかし、ServiceWorker では、生存期間の考え方が二つあるのだ。



先に書いたように、ServiceWorker はブラウザ側で動き、WEB ページが閉じられても残り続ける。

しかし、それは「残っている」だけで、生きているわけではない。


じつは、必要な時に動作し、動作を終わるとすぐに終了してしまうのだ。

「データを渡す」という動作があったとしたら、その動作が終わった瞬間に終了し、変数は消える。


その後、「サーバーアクセス」という動作があり、動き始めたときには変数は存在していない。


だから、変数ではない方法でデータを保持しないといけない。




ServiceWorker は非常に強力な仕組みなので、悪さができないように厳しい制限が課されている。


データ保持方法としては、indexedDB しか使えない。

古くから知られるデータ保持方法には、Cookie や webStorage があるが、それらよりも新しい仕組みだ。


まぁ、それしか使えないのであれば、それを使おう。


…これが、イベントで動作する仕組みになっていて使いにくい。

DB に接続する、という指示を出すと、少し後で「接続成功」というイベントが起きる。

だから、接続成功イベントに、接続後のプログラムを登録しておく。


接続後には、アクセスしたい対象を指定してから「データ取り出し」を指示する。

しかし、データはすぐ取り出されるわけではない。少し後で「取り出し成功」イベントが起きる。


だから、ここでもイベントに対してプログラムを登録しておく必要がある。

非常に面倒くさい。

しかし、他に方法はないのでその方法でプログラムを組む。



ところが、もう一つ問題があるのだ。

ServiceWorker 自体は、こうしたイベントによって動くモデルではないのだ。


いや、先に書いたように「サーバーへのアクセスが生じた」などのイベントはある。

でも、Javascript ってとにかく「何かしたら後で呼び出して」という書き方が多くて、ここ数年で新しい書き方が取り入れたのだ。


そして、ServiceWorker は、基本的にその書き方で書かれないといけないようになっている。




この書き方は Promise というやつで…


この概念の歴史から入ろうと思ったが、無駄に長いのでやめた。

同時に、概念だけ説明するのも同じくらい長くなるのでやめた。


ともかく、概念自体は古いとはいえ、10年たっていないのではないかな。

Javascript の言語仕様に取り入れられたのは、2015年なので、4年程度しかたっていない。


しかし、便利なので、これまでイベントモデルで作られていた Javascript が、最近は Promise モデルで機能追加されるようになってきている。

上に書いたが、ちゃんと理解していないと混ぜて使えない。



ちなみに、Promise の概念の前に Deferred があり、こちらのことは以前に書いたことがある

微妙に違うとはいえ、概念的に慣れていたのですぐに…でもないけど、1日程度で理解できた。





そんなわけで、同じことで悩んでいる人にとっての「答え」を示そう。


ServiceWorker では、fetch (URL アクセス)イベントに対して、最終的な「返事」を event.respondWith として返せばよい。

ここで、返す内容は Promise でなくてはならない。


Promise は、resolve を引数とする関数として定義される。

resolve はコールバック関数であり、Promise の処理終了時には、resolve を呼び出してやらなくてはならない。


この時、resolve には、「結果」を引数として渡す。

通常の関数における、return と同じような感じで、何が結果になるのかはその時の処理内容による。


respondWith は、URL アクセスに対する答えを返す関数なので、答えは http の Response となる。

これは Response クラスとして定義でき、リダイレクトしたいなら headers の Location に URL を渡せばよい。

(http と同じだ)



以上の「きまりごと」さえ守れば、あとはどんな書き方をしようとも自由だ。

関数内部で indexedDB のイベント呼び出しをたくさん定義しても構わない。


僕が仕事で必要だった関数の場合、次のようになった。


self.addEventListener('fetch',function(event){
  let url = event.request.url;

  let param = url.match(/targetDirectory\/([0-9]+)(\?session=)?/);
  if(!event.isReload || !param || param[2])return;

  event.respondWith(new Promise(function(resolve){
    let openReq = indexedDB.open('targetDB');
    openReq.onsuccess = function(event){
      let db = event.target.result;
      let trans = db.transaction('fullURL','readonly');
      let store = trans.objectStore('fullURL');
      let getReq = store.get(param[1]);
      db.close();
      getReq.onsuccess = function(event){
        let redirectResponse = new Response('',{
          status: 302,
          statusText: 'Found',
          headers: {
            Location: event.target.result.url
          }
        });
        resolve(redirectResponse);
      }
    }
  }));
});


説明しておくと、/targetDirectory/123?session=**** というような URL が隠蔽対象だ。


リロードにより fetch イベントが起きているときは、すでに隠蔽されて ?session= 以降はなくなっている。

しかし、初回アクセス時や、リダイレクト直後は ?session= 以降もついているので、判別して処理を変える必要がある。


そして、123 の部分の数値はページの分類を示していて、ブラウザの複数のタブで開かれる可能性がある。

それぞれでリロードしたときに混乱しないように、123 を DB のキーとして、元の URL を格納してある。


#格納部分のプログラムは別途必要。そちらは Promise と無関係に書けるので、それほど難しくない。



…というわけで、URL を検査して、隠蔽されていない場合はそのままアクセスを通す。

隠蔽されている場合は、123 にあたる部分をキーとして DB を検索し、得られた URL へのリダイレクトを生成する。



ちなみに、僕の要件ではリダイレクトが必要だったが、URL を差し替えてそのままサーバーにアクセスしたい、という場合もあるだろう。


実はそちらの方がプログラムは簡単で、redirectResponse を生成せずに、


resolve(fetch(event.target.result.url));


としてしまえばよい。




ここで重要なのは、


・fetch イベントに対する反応は、すぐに返さないといけない。

・event.respondWith が呼び出されれば、そこで帰ってくる反応を待つ。

・呼び出されなければ、本来の URL に対してアクセスを行う。


ということだろう。


respondWith は「結果を返す関数」ではなく、「結果を返すと約束する関数」だ。

結果を返すものだと思って、結果が出てから呼び出そうとすると、「fetch に対して respondWith が返されなかった」ことになり、本来のサーバーにアクセスが行ってしまう。


そして、結果を返すと約束するのだから、返すのは Promise (約束)だ。

Promise は、最終的に resolve として渡される関数を呼び出しさえすれば、その内部でどれほどの時間がかかっても構わない。


だから、時間がかかる indexedDB の処理は、この Promise 内部で行うようにする。




…ただこれだけのことだ。

プログラム例を示したら、なんてことのない、当たり前に見えるコードだろう。


けど、こういう例がネットを探してもなかなか見つからないんだ。

ServiceWorker というと、「キャッシュを使ってオフラインでも動作するようにしましょう」ってお決まりのパターンばかりで。


#ちょっと気が利いた例では、簡単な文字列を「WEB ページ」として生成して返したりする実験をしていた。

 しかし、indexedDB を使って何かのデータを返すような処理を見つけることはできなかった。


この日記が、同じような処理をしようとしている人の助けになれば幸いである。



▲目次へ ⇒この記事のURL

関連ページ

Programming Tips

別年同日の日記

02年 5/3

04年 しばらく日記を書いていませんでした

04年 知恵の輪

04年 天然温泉

04年 ハードディスクの温度

04年 ピクミン2

04年 携帯のことも書いとこう

05年 よきライバル?

06年 ゴールデンウィーク


申し訳ありませんが、現在意見投稿をできない状態にしています

Amazon Fire HD 10 購入  2019-04-26 18:29:13  コンピュータ 歯車

▲目次へ ⇒この記事のURL

Kindle Fire だと思っていたけど、いつのまにか Kindle は外れて、ただの Fire に名前変わっていたのね。



表題通り、Fire HD 10 を購入した。

少し前にセールで値下げしていて、1万980円だった。


実は、我が家では未だに Nexus7 (2012) が現役で稼働していた。


発売時点で、すでに2年前のハード、と言われていたマシン。

でも、当時としては悪くない性能で、何よりもとても安かった。


その後、ハードウェアが高速化すれば、そのうえで動作するアプリも、高速処理を前提としたものになる。

今となっては遅すぎてストレスのたまるマシンだったが、朝の Radiko 専用端末としては十分に使えていた。



我が家では、朝はテレビを見ない。子供たちがテレビを見入ってしまうと朝ごはん食べるの遅くなるから。

そこで以前からラジオを付けていたのだが、1年前にキッザニアに行ったときから、子供たちが J-wave に興味を持つようになった。


しかし、鎌倉では J-wave の電波は入りにくい。

自然と Radiko を使用するようになり、Nexus7 は Radiko 専用機となっていた。




しかし、その Radiko も、少し前にアプリがバージョンアップしたのだ。

…いや、この新アプリは、対応する OS バージョンの問題で、Nexus7 には入らない。

だから、アプリが重くなるようなことはない。


しかし、動作が重くなったのだ。

Radiko アプリは、多くの情報をネットワークから取得する。

どうも、アプリ更新と同時に、その元データの量が増えたのか、動作が遅くなってしまったのだ。



これはさすがに買い替え時だな、と思った。それなら、以前から興味あったから Fire HD 10 が欲しいな、と思っていた。

しかし、事実上 Radiko だけ聞ければいいマシンに1万5千円かぁ…と躊躇していたら、ちょうどセールが来た。


そんなわけで、買ってしまったのだ。




というわけで、前振りが長かったけど使用レポート。


断っておくが、Fire HD 10 は、2017 年に発売されたマシンだ。

それも、Nexus7 と同じように、「安いマシン」を目指して作られているので、発売時点で2年前の性能だった。


だから、1万円と激安ではあるが、その性能は 2015年の最新スペックくらいだと思っていい。

そして、2017年に発売されたものなので、今更使用レポートを書いたところで、誰かの参考になるとも思えない。


あと、Fire HD の「前世代機」は、2015年発売だった。購入したのは 2017年発売モデルで、今年は 2019年だ。

セールで安くなっているのも在庫処分の予感がするし、性能が良い機種が欲しい人は慌てて買わないことをお勧めする。


その一方で、新機種が出れば値段は上がるだろう。

Amazon では定期的にセールを行っているし、1万円で使い勝手の悪くない機械が欲しいのであれば、次のタイミングを狙うといいかもしれない。



なお、我が家にはすでに関連商品として Fire TV Stick がある。

ずっと第1世代を使っていたが、先日やはりセールで安かったタイミングで第2世代に乗り換えた。


数年来 Amazon prime 会員で、多くのビデオが見放題なので、子供とアニメを見たりしている。

僕は主夫を標榜しているので家事もほとんどやっているが、家事をしながらスマホでもアニメを見ている。


#別にアニメ好きなわけではない。むしろ、子供が生まれる前はアニメ嫌いだった。

 しかし、家事の合間に見るにはちょうど良い長さなのでいろいろなアニメを見るうち、すっかりそういう生活になってしまった。




購入する際には、カバーを一緒に注文した。

10インチタブレットは大きいので、家事の合間にビデオを見ようと思ったら、なにか「立てる」手段が必要だ。


スマホで観ていた時には、小さな台を使っていたが、10インチではとても使えないだろう。


純正カバーは、縦にも横にも立てられるスタンドとしての機能がついている。しかしおよそ5千円もする。

本体が1万円なのに、ちょっと高すぎる。


しかも、この「立てる」機能が微妙で、立てる面が滑りやすいとうまくたたない…というレビューも散見する。


サードパーティ製で、1500円のカバーがあって評判が良い。

横置きでしか立てられない代わりに、2通りの角度に使える。


こちらを購入。




商品が届いて驚いたのは、入っているのが「箱」ではなく、しっかりした素材の「紙袋」だったことだ。


もう一度しまって置いておく、というようなことは考慮されていない、破いて開ける紙袋。

使い捨て、と言うと語弊があるが、しばらく使い倒したら買い替える、そういう商品だということだろう。


元々、購入時にそういうつもりだった。だから、今回画面保護フィルムなどは買っていない。

カバーはあるので鞄に入れて持ち運んでも大丈夫だろうし、そもそもそれほど家から持ち出さないつもりだから。



そもそも、Fire HD 10 には、SIM が刺さらない。

モバイルでの電波は使用できず、WiFi があるところでしか使えない。


今まではスマホの Prime Video アプリを使っていたが、これも WiFi が前提だ。

一応モバイルの電波でも見られるが、WiFi のある場所でビデオをダウンロードして、外で観たいときはそのデータを見る、という作法になっている。


そうした性格のものなので、Fire HD 10 には GPS も、地磁気センサーもついていない。

持ち歩くようには考えていないのだ。



一方で、Amazon がこれから力を入れたい、Alexa が使用できる。

(英語版は以前から使えたそうだが、日本語版は最近対応したばかりだ)


こちらも WiFi を前提として、ほぼすべての処理をネットワーク越しに行うものだ。



タブレットだけど、モバイルではなく、家の中で使うもの。

Fire HD 10 は、そうした設計のマシンだ。

ここを見誤ると、1万円でも「高い買い物」となってしまうだろう。




さらに言えば、Amazon Prime などの会員になっていて、Amazon のサービスを使いたい、という人向けに作られている。


Amazon の各種サービスのアプリはインストール済みだが、それだけでなく、ホーム画面で直接「おすすめのビデオ」「おすすめの本」などが表示されるようになっている。


さっき見ていた続きもすぐに見始められるし、今までの視聴履歴からのおすすめも出る。

それらをタップすれば、適切なアプリが起動する。だから、アプリアイコンは並んでいるが、あまり使う機会はない。


逆に「安いタブレット」として購入したいだけで、Amazon のサービス会員になっていない人にとっては、無意味なオススメばかりされる使いにくい端末だろう。



「ホーム画面」と書いたが、一応 Android 端末だ。

Android 端末では、ホーム画面もアプリの1つにすぎないため、入れ替えれば普通の Android として使用できそうに思う。


…が、そうした夢は見ない方がいい。


Kindle Fire HD には、Google Play store アプリがインストールされていない。

だから、普通の Android アプリはインストールできない。


一応、Amazon App Store からのインストールはできるし、有名な Android アプリなどはこちらにも結構登録されている。

しかし、バージョンが古かったり、機能限定版だったりすることも多い。Android として使おうとは思わない方がいい。



それでも使いたいときは…実のところ、Google Play アプリをインストールすることは可能なのだ。

Amazon の WEB ブラウザである「Silk」が入っていて、探せば WEB からアプリをダウンロードし、インストールできる。



しかし、そこまでやっても、Android 5.1 相当で、しかもこれはカーネル(OS の中核部分)が入っている、というだけの話だ。

(現在、Android の最新バージョンは 9 だ。5.1 は、Nexus 7 の時代の OS だ)



Android なら当たり前に入っているはずの周辺サービスが入っていない。

そうしたサービスを前提とするソフトは、たとえインストールできたとしても、動かない。



Fire HD 10 は、あくまでも「Fire OS」のタブレットであって、Android ではない、と思っていた方がよいだろう。




とはいえ、購入して最初にやったのは、Google Play と Chrome を導入することだった。


最初に書いた通り、Radiko を使いたかったのだが、Amazon App Store で配布されている Radiko は、お話にならないほどバージョンが古く、機能が限定されるのだ。



これは、無事入った。Android 端末としての期待はしないとしても、「使えないことはない」というのは安心感をもたらす。



次にやってみたのは、Prime Video の視聴だったが…

これは、ちょっといただけない。


画面は大きくて非常にきれいだし、内蔵スピーカーの音もよい。この点文句は何もない。


しかし、僕は家事をしながら見たいのだ。家族が寝ている時間に見ることもあるため、Bluetooth イヤホンは必須なのだ。


その Bluetooth に、非常に雑音が乗る。


実は、これは古い Android には普通にあったバグで、どうも配信用に圧縮された音声を展開し、Bluetooth 通信のために再度別の形式に圧縮する過程でノイズが乗ってしまうのだ。

そのため、Bluetooth オーディオを使用しなければ問題はない。


これが、静かな時ほど大きなノイズが乗る。

「常に軽いノイズがあるが、静かだと目立つ」というようなヒスノイズとも違う。

明らかに、静かな時だけノイズが乗るのだ。


#静かな時と書いたけど、より厳密には「音の周波数成分が単純な時」。

 オルゴール曲が流れるようなシーンでもノイズは大きくなる。

 圧縮アルゴリズムを知っていると、バグの原因がなんとなくわかる感じ。



このノイズ、そういうものだと我慢できないこともないが、非常に残念なレベルだ。

Android のベースバージョンが古いことが、こんなところで足枷になっている。



次に、Prime で読める本を読んでみる。

そういうサービスがあるのは知っていたし、実は Kindle Paper White も持っているのだけど、あまり活用していなかった。


それが、Fire OS のホーム画面「おすすめ」機能で、無料で興味がありそうなものを勧めてくれるのがちょっとうれしい。



ここで、同時購入したカバーについて言及。

表紙を開いたときに、3つ折りで「三角柱」を作ってスタンドにできるものなのだけど、その柱を下に持ってくるか、上に持ってくるかで角度を2段階に調整できる。


(タブレット本体は、反転した形になる。ボリュームや電源などのボタン類は、縦置きの時に一番上の辺に集中しているので、横置きではどちら向きにおいても問題ない)


この2段階が、角度を「立てた」時にはビデオ視聴にちょうどいいし、「寝かせた」時には、本を読むのにちょうどいい。


三角柱を作った際には、カバー内に内蔵した磁石がうまくくっついて、それなりの力に耐えてくれるのもよくできている。


レビューでは純正カバーより評判が良い感じなのだけど、納得した。




漫画を読んだのだが、横画面にして、2ページ見開きでも十分に文字が読める。

もちろん、細かな部分などを見たければ拡大もできる。


普段スマホで漫画を読んでいるが、縦画面で1ページ表示でも、文字を読むためには拡大しないといけない感じ。

読書端末としてはかなり使いやすい。



気をよくして、「マンガ Park」アプリをインストールしてみた。

白泉社の漫画が1日に8話づつ無料で読めるアプリで、普段使わせてもらっている。


…残念ながら、このアプリは縦画面専用だった。見開き表示はできない。

しかし、拡大しないでも文字が読めるのはありがたい。




Alexa を試してみる。


google の音声認識である「OK google」は、スマホで使用する場合はまず何らかの方法でスリープ解除してからでないと使えない。

(場合が多い。スマホにもよるだろうが、実際この程度で解除できてしまうとセキュリティ問題があるだろう)



スマートスピーカーは当然音声だけで操作できるが、あれは「家庭内」に使用できる場所を限定していて、セキュリティ問題が出にくいからできるのだ。


そして、Fire HD 10 の Alexa は、スリープしている状態からでも使用できる。

こちらも、持ち歩かないことを前提にしているから、ということなのだと思う。


カバーを閉じていて画面が見えないときは、本当にスマートスピーカーと変わらない。




せっかく Radiko アプリを入れたのだけど、「アレクサ、J-wave 再生して」と言えば、J-wave を聞かせてくれた。


Alexa で機能追加するアプリのことを「スキル」と呼ぶのだけど、Radiko はスキルとしても提供されている。

初めて機能を使おうとしたときに、スキルを使ってもよいか聞かれるので承認すればいい。



この Radiko スキル、実はレビューではかなり評判が悪い。

「J-wave 再生して」と言っても、わざわざ「J-wave を再生しますか?」と聞き返してきて、「はい」と答えないと再生してくれない。

再生中にボリュームを変えようとすると終了してしまう、Radiko の機能のすべて(タイムフリーなど)を使うことはできない、などなど。


しかし、単に現在の放送を聞きたいだけ、というのであれば、使い勝手は悪くなかった。


特に、先に書いたように朝の食事の際に聞きたいので、配膳しながら指示を出せるのは便利だった。

しばらく使ってみて、不便な点があればアプリを使うようにしよう。

 



Alexa に何か頼む、というのはなかなか面白いようで、子供が「天気教えて」とか「今何時?」とか、いろいろやってみている。

しかし、今のところうまく認識されない、と笑っているレベルで、実用にはなっていない。


そもそも、家族がいる部屋の中で「アレクサ!」って急に言い出すのは恥ずかしい。

この機能は、1人暮らしの人には評判が良いようだが、我が家での使いどころを見つけるのはもう少し時間がかかりそうだ。



▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

歯車

関連ページ

Nexus7 (2012) 復活【日記 19/05/20】

別年同日の日記

15年 ピューロランドで誕生日

18年 ST-V事業のテコ入れ


申し訳ありませんが、現在意見投稿をできない状態にしています

micro:bit 買った  2019-04-19 17:46:17  コンピュータ 歯車

▲目次へ ⇒この記事のURL

小6になった長女が、学校で蛍光ペンを使うらしい。


5色セットで色の指定まである。そこまで細かいと、店に行っても置てあるとは限らんぞ…

と思い、Amazon で買うことにした。


そうしたら、一番よさげなものが「あわせ買い対象商品」で、2000円分買わないといけない。

蛍光ペンは 300円なのに。



と、前振りが長いのだが、ちょうど 2000円で買える子供用コンピューター、「micro:bit」を買った。

以前から興味はあったけど、遊ぶ暇がないから買ってなかったやつ。




micro:bit に関しては、発売前に少し触れている

もっとも、発売前は BBC Micro Bit という名前だった。


イギリスでは、1981年に、国営放送である BBC が BBC Micro というコンピューターを発売している。

その「後継」というか「再来」というような位置づけだ。


子供全員が持てるように、安いけれど十分な機能を備え、単体で動くコンピューターとして作られている。




いろいろ説明しようと思ったのだけど、書いてみたら長くなったのでやめておこう…

先行する「小さなコンピューター」である、Arduino / Raspberry Pi / Ichigo JAM と比較して、それぞれの特徴を書こうと思ったのだ。


特に Raspberry Pi 。

micro:bit と同じ、イギリス生まれの子供向けコンピューターだ。


これとの衝突は、絶対避けなくてはならない。

1981年の BBC Micro では、商売が「衝突」したイギリス国内の企業から、「国が民間企業の邪魔をするのは違法行為だ」と訴えられたのだ。



しかし、使ってみてわかった。micro:bit は、Raspberry Pi とは違う市場を見つけ出し、見事にすみ分けている。

それどころか、「併用すれば楽しさが広がる」ような世界を作り出している。



Raspberry Pi は小さなデスクトップパソコンで、micro:bit は「プログラムが楽しい周辺機器」なのだ。

だから併用しても構わないし、守備範囲が違う。


残りの二つ、Arduino と Ichigo JAM については詳しく書かないが、ここら辺とも違う環境になっている。




話を micro:bit に戻すと、「思ったより楽しい」。

もっと早く買えばよかった。



単体でプログラムできる環境、というより、「スマホのセンサー部分だけ取り出した」という感じだ。

これは、先に書いた3機種にはない、micro:bit だけの特徴だ。



加速度センサー、地磁気センサー、明るさセンサー、接触センサーなどを備えている。

簡単だが、表示デバイスもあるし、2つのボタンもある。



ボタンが2つしかないので、ゲームを作るのにはちょっと辛い。

上下左右を加速度センサーによる傾き検知で行う、という作法で作られるものが多いようだ。

しかし、この方法は操作性悪い。


従来の方法論にとらわれない、新しい発想が必要なのだろうな…

スマホゲームとかでも、画面上のボタンを推させるような方法で既存ゲームを真似するのは使いにくいだけ、というのと同じ。




とりあえず、まだ暇がなくてあまりいじっていない。

5x5 しかない表示画面でもでもテトリスくらいは作れそうだ、と思ったら、すでにテトリスは作っている人がいた。


パックマンも。…作れそうなゲームは、すでに軒並み作られているのかな。


まぁ、人が作っているとしても、練習で自分でも作ってみればよいのだけど。



▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

歯車

別年同日の日記

02年 4/19

05年 網戸ついた

06年 大玉

17年 地図の日


申し訳ありませんが、現在意見投稿をできない状態にしています

新サーバー設定中  2019-04-17 18:14:43  コンピュータ

▲目次へ ⇒この記事のURL

去年の9月に、社内実験用サーバーを新しくしたい、と書いた。


とっくにサポート期間を過ぎている、CentOS5 だったのだ。

さすがにサポートが切れているのはまずいので、新しくしたかった。


しかし、やっとサーバーを購入したのは、12月だった



物理マシンへの OS インストールに紆余曲折があった。

最近の流行は、サーバーでも Ubuntu のようなので、Ubuntu server を使ってみるつもりだった。


…しかしこれは、「デスクトップで Ubuntu に慣れた人が多いから」流行しているだけだ、と思った。

サーバー用途向けに作ってある、としているパッケージでも、サーバーとしては足りないものが多いのだ。


「使えなくはない」が、「満足して使える」ものではない。

結局 CentOS で行くことにした


#サーバー初心者であれば、Ubuntu は悪い選択ではない。

 できることが限られる、というのは、みんな横並びなので情報を得やすい、ということでもある。



…その後がなかなか進まなかった。

バーチャルマシンとしても CentOS をインストールして、古い環境と同じように整備する。


これが、古い環境が古すぎて、ただファイルを持ってくれば終わり、とはいかない。


旧マシンでは djbdns を使っていたが、nsd + unbound に変えることにする。


php のバージョンが上がり、この WEB サイトを表示していたプログラムが動かなくなった。


このサイトは、僕が設計した独自の CMS で動いている。

古いものなので mysql 関数群を使用していたが、今後の php ではこの関数群はサポートされない。


mysql と比較的動作をそろえたまま、オブジェクト対応になった mysqli 関数群がある。

動作が近い、とはいえ結構違うものなので、簡単には置き換えられない。


とはいえ、置き換えるのに一番早そうな設計指針をたて、ちまちまと改良した。

多くの個所は機械作業で修正でき、一部は大幅な見直しが必要になったが乗り切った。


ついでにこの時新機能も追加している。


公開用サーバーは比較的新しく、改良ソースでも動作する。

なので、完成したらさっさと公開用サーバーのプログラムも入れ替えた。


当初はおかしな部分もあったが、すでに安定動作している。




その後は、年度末進行もあってサーバーの移行も止まっていたが、古いファイルの整理などは進めていた。

旧サーバーには、古い仕事のファイルが多数ある。必要なものは tar+bzip2 して残し、不要なものは消去する。


新サーバーのディスクは、最小限のサイズにしたいのだ。

そうしたほうが、仮想サーバーを物理サーバー間で移動したりする際に、ファイル転送が速いから。



やっと年末・年始進行が終わって、今週は一息付けた。

そこで、ローカルでの移行作業を一気に済ませ、やっと社内実験用サーバーを更新することができた。



「サーバーを更新したい」と思ってから半年以上かかっている。

しかし、まだ作業は半分しか終わっていない。


新サーバーは仮想環境を kvm にしている。

しかし、もう一台の物理サーバーは xen だ。


これでは仮想サーバーの可搬性がない。もう一台も kvm にしなくてはならない。


xen 仮想サーバーを kvm 仮想サーバーに変える、という未知の作業があるが、調べた限りではそれほど難しくないようだ。


kvm にして新サーバーに退避すれば、あとは物理サーバーを再インストールし、kvm 対応にするだけだ。



しかし「難しくない」としても、時間はかかりそうだ。

計画開始から1年たつ前に終わらせたい。



▲目次へ ⇒この記事のURL

関連ページ

パソコン壊れた【日記 19/05/05】

別年同日の日記

02年 4/17

17年 アメリカが日本製のパソコンに100%関税をかけた日(1987)


申し訳ありませんが、現在意見投稿をできない状態にしています

村井純 誕生日(1955)  2019-03-29 17:21:54  コンピュータ 今日は何の日

▲目次へ ⇒この記事のURL

今日、3月29日は、村井純 氏の誕生日(1955)


すごい人だ、というのはずいぶん以前から知っていたのですが、いまだにその程度の認識から抜け出していません。

インタビュー記事拾い読みしたりとか、その程度の知識しかなくて、ご本人が書かれた書籍などはほとんど読んでません。


そんな状態で、あまり偉そうな紹介はできない。

ふんわりとした概要だけ示して、あとは各種記事にリンクして丸投げします。申し訳ありません。




村井純 氏は、日本のインターネットを黎明期から支え、今も第一線で活躍する方です。


「日本のインターネットの父」と呼ばれることも多いです。ご本人はこの呼び方嫌いだそうですが。

生み出したわけではなく、ただアメリカにあったものを紹介したわけでもなく、「世界と一緒に作り上げてきた」。


しかしまぁ、生みの父ではなくても、育ての父か…町ぐるみで子供を育てる、「近所の親父さん」くらいの役割は果たしていると思います。


まだ貧弱な技術でしかなかった時代から、正しい方向に長年かけて育て上げてきた。

ある程度育ったら、口を出しすぎずに見守り、おかしなことになりそうな時には強い意見を出してきました。



海外では、「インターネットサムライ」とも呼ばれています。

今年の2月には、フランスから、フランスの最高勲章であるレジオン・ドヌールを与えられています。


これは「日本の」だけでなく、世界のインターネットを育ててきた功績から。

IPv6 の実装には、日本の技術者が多くかかわっています。

実際の開発とは違いますが、全体を指揮したのは村井氏でした。




日本の最初の「インターネット接続」は、慶應義塾大学の大学院生であり、東京工業大学総合情報処理センター助手でもあった村井純氏が、2つの大学間を「勝手に」接続したことに始まります。


1984年9月のことだそうです。電話回線を使用して、300bps のモデムで接続し、uucp 運用したそうです。

接続理由は、個人的な都合で、データのやり取りができると便利だったから。



uucp って、メールとかのデータを、時々まとめてやり取りする形式ね。

インターネットといっても、今みたいな「常時接続」ではありません。

決まった時間になると自動的に電話をかけて、その時点で溜まっているデータを双方で交換して、終わったら電話を切るの。


ところで、1984年9月ということは、まだ「電電公社」の時代です。

1985年4月には NTT に組織変更し、通信自由化されるのですが、この時に「電話機」も自由に交換することが可能になります。

それまでは、電話機と電話線は電電公社が「貸し出している」もので、勝手な改造は許されませんでした。


…何が言いたいかというと、モデムを接続するのが違法な時代でした。

大学に相談せずに勝手にやった、とのことですが、相談しても認めるわけにいかないのがわかりきっています。



この「ネットワーク」について、いろいろなところで話したところ、東大の教授から「3地点はないとネットワークとは呼べない」との指摘を受けます。

そこで、1か月後の10月には東京大学が参加。


大学間を接続するネットワークなので、Japan University NETwork…JUNET と呼ばれました。


この後、さらに多くの大学・研究機関が参加していきます。

10年後の 1994年に「役割を終えた」として JUNET は解散しますが、最盛期には 600以上の組織が参加していたそうです。




JUNET は「日本最初のインターネット」なので、いろいろなものが生み出されています。

その一つが、日本語をコンピューターで扱うための文字コード体系。


JUNET 以前に、JIS 漢字自体は制定されています(1978)。

しかし、これは「文字の形(グリフ)と、それを示す数値(コードポイント)のセット」を示したものにすぎません。


JIS 漢字のコードポイントは巧妙で、「区」と「点」の2つから作られています。

そして、区・点ともに、1~94の数値になっています。


この「1~95」という数値は、ASCII コードで印刷可能な文字数、94文字に由来します。


印刷可能「ではない」部分は、コンピュータープログラムが、内部動作のために使用しているかもしれません。

しかし、印刷可能な文字部分であれば、その文字を別の文字に差し替えても、動作に支障はないでしょう。


つまり、JIS漢字は、ASCII との互換性を最大限に考えたうえで作られているのです。


とはいえ、ここまでは「互換性を考えています」というだけの話。

実際に、コンピューターで使えるようにする必要があります。


また、ASCII の文字と同じ場所を使う…ということは、ASCII とは同時に使えないことを意味します。

1つの文章内に日本語と英語を一緒に書けないのです。


それでは不便すぎますから、解決する必要があります。



これを定めたのが、当時 JUNET コードと呼ばれ、のちには国際標準の ISO-2022-JP として定められた文字コード体系です。


ASCII には、もともと「ASCII から脱出する方法」が用意されていました。

これを応用して、ASCII から「脱出」してJIS漢字にしたり、JIS 漢字からまた「脱出」して ASCII に戻ったりします。


今でも、メールなどでこの文字コード体系が使われることがあります。




1985年、JUNET で縁のあった慶應義塾・東京工業大学・東京大学間で、WIDE 研究会が発足します。

インターネット接続に関する研究会でした。


WIDE 研究会は、1988年には WIDE プロジェクトへと発展します。


WIDE は Widely Integrated Distributed Environment の略…ということになってますが、略称の頭に WIDE って入ってますね。


直訳すれば「広域統合分散環境」。統合されつつも、分散された環境…つまり、今のインターネットでできるようなことを研究する、というプロジェクトです。

このプロジェクトは現在も続いています。


JUNET は、大学間を接続して情報交換を行うためのネットワークでした。

それに対し、WIDE はそうした環境を研究し、必要であれば新たな提案をしていくためのプロジェクトです。


密接な関係にはありましたが、目的は明確に違っていました。




1985年には、JUNET と、アメリカの USENET が相互接続します。


USENET は、UNIX のユーザーグループである USENIX が主体となって開始された、インターネット上の情報交換ネットワークでした。

これをベースとして、のちに汎用化された netnews に発展しています。


#USENET は uucp 運用だったが、netnews は nntp 運用。内容については基本的に引き継がれた。


この時は、国際電電(現在の KDDI)を巻き込んだプロジェクトでした。

アメリカまで「電話線で」接続すると、国際電話料金がかかります。


しかし、国際電電を仲間に引き入れたことで、「接続実験」として無料で接続ができたのです。




ところで、このころまで日本のドメインは .junet でした。

しかし、アメリカと相互接続するようになると、ドメインを「公式に」定める必要が出てきます。


そこで、アメリカのドメイン管理団体である IANA から、村井氏個人が委任される形で、.jp が作成されます。


#IANA も、事実上は個人運営。Jon Postel氏が管理していました。


しかし、.junet から .jp への移行は 1989 年頃でした。





1989 年には、アメリカと専用線で接続しています。


このころには、国内でも専用線…電話線を使用した uucp ではなく、現在のような常時接続が始まっていました。

とはいえ、まだ専用線は高価で、大きな組織でないと使えませんでしたが。


国内でのネットワークは、実験的なものとして国も参加した一大プロジェクトでした。

これをアメリカともつなげよう…となった時、国内の各所から反対の声が上がりました。


インターネットも、まだ一般化しておらず、誤解の多い時代です。

もともとは国防総省の研究から始まったネットワークで、軍の機密情報などにもつながっているのに、日本から接続したら国際問題になるのではないか?

それが、反対の主な理由でした。


#国防総省は ARPA-NET の研究に資金は出していますが、軍事用には専用の回線 (MIL-NET)を作っていました。


これに関しても、村井氏が個人でアメリカ側の担当者から「日本の接続を歓迎する」という直筆メモをもらってきて、周囲を説得したのだそうです。




1992年、IIJ (インターネット・イニシアチブ・ジャパン)が設立されます。


JUNET / WIDE は、大学間のネットワークでした。

「大学の」費用で維持され、「研究目的」の使用しか認められません。


そのままでは、自由なインターネットの普及は望めません。

そこで、WIDE とは別のネットワーク網を作り出し、自由な目的で使用できるインターネットを作り出すことが目的でした。


もちろん、村井氏も創設メンバーに名を連ねています。


実際、IIJ 設立後、急速にインターネットは普及し始めます。




1997年、WIDE プロジェクトで、m.root-servers.net の運用が始まります。


これは、DNS ルートサーバーと呼ばれる、非常に重要なサーバ。


本当は日本には「J」が割り当てられる予定だったそうです。Japan だから。

しかし、J をアメリカの組織が運用することになり、じゃぁ別のサーバーを…となった時に「村井に任せるから M で」と M が割り当てられたのだとか。



DNSルートサーバーは、全世界で、A~M の13個しかありません。


DNSルートサーバーの情報もまた、DNS で配布されます。

DNS の技術的な話で、この情報は 512byte に収める必要があります。

そして、512byte では13個しか収まらないのです。


もっとも、非常に重要なものだから、1つのアドレスを複数のマシンで受け持っていて、「13台」ではないのですけど。


10個はアメリカ。ほかに、日本とスウェーデンとオランダに1個づつあります。


日本の M は、東京と大阪、ソウル、パリ、サンフランシスコに実際のサーバーがあるのだそうです。

それぞれの拠点でも複数台あるのですが、重要なものだからこそ、詳細は明かされていません。




1998 年には、WIDE の下位組織として、KAME Project が活動を開始します。

同時期に、USAGI Project も作られました。


現在、多くのインターネット接続は IPv4 と呼ばれる規格で行われています。

しかし、1991 年の時点で「このままでは近いうちに問題が起きる」ことがわかっていました。


そこで、次世代(Next Generation) の規格として IPng の策定が開始されます。

これはのちに IPv6 と名を変え…策定中の仕様案も、途中で大幅に変わったりしながら、1998年にやっと仕様が決定します。


しかし、仕様だけあっても意味がりません。

すぐに…というか、仕様がほぼ固まった時点で、前倒しで実際に動くプログラムの作成(実装)が開始されます。



BSD 系の UNIX に実装を行ったのが、KAME Project でした。

当時は、Linux 人気が出始めたところで、まだ BSD の方が「信頼性がある」と考えられていました。


これが「世界初の IPv6 実装」となり、Linux への移植が行われます。これが USAGI プロジェクトです。




2000年代にはいると、急速にインターネットが普及し、村井氏の仕事も「周辺環境整備」から、今後の在り方の研究に変わっていったようです。

しかし、今でも活動は続いています。


昨年の例でいえば、漫画の海賊版をダウンロード配布させるサイトが社会問題となりました。

政府がそうしたサイトの「ブロッキング」(DNS 等を細工し、到達できないようにする)を正当化する法律を作ろうとしました。



これに対し、WIDE プロジェクトが反対。

「インターネット上の海賊版対策に関する検討会議」が行われ、村井氏は座長も務めています

まだ、インターネットを正しい方向に導くために、精力的に活動中です。


#ここでは深入りはしませんが、当の「保護対象」である漫画家協会がこの法案に反対したこともあり、提出断念となっています。




インターネットの、本当に黎明期から現在に至るまで、多くの影響を与え続けていることがわかると思います。


そうした功績もあり、今年の頭には、冒頭に書いた通り、レジオン・ドヌールも受勲。


まだ存命の型ですので、近年の活動などについてはインタビュー記事などを読んでもらった方が良いかと思います。


NTT DATA 2017/7/21

CiP協議会 2017/9/20

INTERNET Watch 2017/11/30

Wired 2018/12/11

日経ビジネス 2019/1/14



▲目次へ ⇒この記事のURL

同じテーマの日記(最近の一覧)

今日は何の日

別年同日の日記

04年 親不知

11年 卒園式

13年 バードストライク

16年 アクティベートにハマる


申し訳ありませんが、現在意見投稿をできない状態にしています


戻る
トップページへ

-- share --

16000

-- follow --




- Reverse Link -