ストレージを信じるということ

ストレージに求められるのは、便利さと信頼性の両方だ。この二つが揃っている限り、裏側がどんな技術で動いていようと気にする必要はない。ファイルを保存して、必要なときに取り出せる。それだけのことが当たり前に機能し続けること。ストレージへの信頼とは、つまるところそういうことだと思う。

ところが、ストレージには他の技術レイヤーにはない厄介な性質がある。

不可逆性という特殊性

ソフトウェアにおける抽象化とは、内部の複雑さを隠して、使う側に必要な操作だけを見せる設計思想だ。ファイルを「保存」するとき、実際にディスク上でどのようにデータが書き込まれているかを意識する必要がないのは、この抽象化が正しく機能しているからにほかならない。

多くの技術レイヤーでは、抽象化が破綻しても回復の手段がある。計算の誤りはやり直せる。通信の途切れは再送できる。しかしストレージの喪失は、バックアップが存在しなければ取り返しがつかない。破綻したときに巻き戻せないという不可逆性が、ストレージを特別な領域にしている。

同じ性質を持つ分野は他にもある。たとえば暗号鍵の管理がそうだ。秘密鍵を紛失すれば、署名能力は不可逆的に失われる。共通しているのは、「普段は裏側を知らなくていい」という信頼が、「裏側が壊れたとき誰が責任を取るのか」という問いと常にセットになっているという構造だ。

クラウドであれば、その責任はプロバイダが負う。NASであれば、それは自分自身だ。便利さと信頼性が両立している限り、この問いは表に出てこない。しかし一度発火すれば、被害は取り返しのつかないものになりうる。

サブスクリプションの構造

クラウドストレージに限らず、ソフトウェアのサブスクリプションモデルに抵抗を覚える人は少なくない。気持ちはわかる。しかし、買い切りとサブスクリプションのインセンティブ構造を比較すると、直感とは異なる側面が見えてくる。

買い切りモデルでは、販売した時点で開発者の収益は確定する。その後もソフトウェアを維持し続ける経済的な動機は、構造上、弱い。もちろん評判やブランド価値の維持といった間接的な動機はあるが、直接的な収益との結びつきは薄くなる。

サブスクリプションモデルでは、ユーザーが継続利用することが収益に直結する。だからサービスを安定的に提供し続ける動機が、ビジネスの構造そのものに組み込まれている。「月額を取られ続ける」という不満と、「だからこそ維持される」という事実は、矛盾なく両立する。

ただし、サブスクリプションにはもう一つの動機が内在している。解約を防ぐことが収益に直結するならば、乗り換えコストを意図的に高くする動機も同時に生まれる。データのエクスポートを煩雑にする。独自フォーマットに囲い込む。APIを制限する。こうした施策は、サービスを「維持する」動機と「離脱させない」動機が表裏一体であることを示している。

ここには信頼と依存の境界がある。どちらも、外から見れば「相手に任せて自分は関与しない」という形をとる。しかし信頼は離脱の自由を前提に成立するのに対し、依存は離脱の困難さによって維持される。サブスクリプションを使い続けるほどデータと習慣が蓄積され、最初は信頼だったものが、いつの間にか依存に変質していることがある。しかもその境目は明確でないから、当人にも気づきにくい。

NASという選択肢

NAS(Network Attached Storage)は、手元にストレージサーバーを置いて自分で管理するという選択だ。クラウドにデータを預けることに不安がある人にとって、データが物理的に自分の管理下にあるという事実は、一つの安心材料になる。

たとえばSynologyのNASは、ハードウェアは買い切りでありながら、DSM(DiskStation Manager)と呼ばれるOSが継続的にアップデートされる。ファイルシステムにはBtrfsが採用されており、スナップショットやデータのチェックサム検証によるデータ保護機能が提供される。なお、SynologyはBtrfsのネイティブRAID機能ではなく、LVM/MDベースのRAID構成の上にBtrfsを載せるという設計を採っている。これはBtrfsのRAID5/6実装に既知の安定性の問題があるためで、実用上は合理的な判断とされている。

このように「ハードは買い切り、ソフトウェアエコシステムは実質的に継続提供」という構造が、NASの信頼感を支えている面がある。純粋な買い切りハードウェアだけでは、長期にわたる安定運用は難しい。

一方で、NASは自己管理が前提だ。ディスクの故障対応、ファームウェアの更新、バックアップ戦略の設計と検証。これらはすべて所有者の責任になる。クラウドが信頼の委託だとすれば、NASは信頼の引き受けだ。便利だが、その便利さの維持にかかるコストも自分で背負うことになる。

データは増え続けるが、全部残すべきとは限らない

保存すべきデータが増え続けるのは事実だ。しかし、「増えた分はすべて保持すべきだ」という前提は自明ではない。

タグもフォルダ分けも検索用のメタデータも何もない巨大なアーカイブがあったとして、そこから必要なものを取り出せなければ、保存していないのと実質的には変わらない。ストレージの問題に見えて、実は検索と意味づけの問題であることが多い。

セマンティック検索やマルチモーダル検索といった技術の発展は、「まず保存して、検索は後からどうにかなる」という方向を後押ししている。技術が「全部残す」という戦略を事後的に正当化しつつある状況は、確かに興味深い。

ただ、何を残し何を手放すかを判断する行為そのものが、アーカイブに輪郭を与えるという側面もある。すべてを無差別に保持するということは、何も選んでいないということでもある。保存するという行為に意志が伴わなければ、それはアーカイブではなく、ただの堆積だ。

コールドストレージは個人に必要か

アクセス頻度の極めて低いデータを低コストで保持する手段として、コールドストレージという領域がある。

Meta(旧Facebook)はかつて、Blu-rayディスクを用いたコールドストレージシステムを自社開発した。1ラックに約10,000枚のBlu-rayディスクを格納し、約1ペタバイトの容量を実現するこのシステムは、従来のHDDベースの構成と比べてストレージコストを約50%、消費エネルギーを約80%削減したと報告されている。保存対象は、ユーザーがアップロードした古い写真や投稿など、ほぼアクセスされないが削除もできないデータだった。

クラウドサービスとしては、AWSのS3 Glacier Deep Archiveが約1米ドル/TB/月という低コストのアーカイブストレージを提供しており、個人が利用する事例も見られる。ただし、データの取り出しに12時間から48時間を要すること、最低保存期間が180日に設定されていること、リクエスト料金やデータ転送料金が別途発生することを考慮すると、運用は単純ではない。

こうした手段の本質は、「消すわけにはいかないが、ほぼ二度とアクセスしないデータ」を最小のコストで維持することにある。Metaにとっての目的はユーザーデータの長期保持とコスト最適化であり、アーカイブそれ自体が目的なのではない。アーカイブを目的としない限り、個人がこの領域に踏み込む必然性は薄いと言える。

ほとんどの人はこの問題の外にいる

NASとクラウドの二重化は、データの保全を真剣に考える層にとっては定番の手法とされる。しかし率直に言えば、大切なデータをUSBメモリに入れて保管しているだけで、世の中全体の平均からすれば十分に意識の高い部類に入る。

ストレージの冗長性について議論する人は、そもそもストレージを「問題」として認識できるだけのデータを持ち、それを失うことのコストを肌で理解している人だ。この問題について考えていること自体が、すでに多数の人とは異なる立場にいることを意味する。

これはストレージに限った話ではなく、あらゆるインフラに共通する構造だ。うまく機能しているインフラは、使っている人にとって透明になる。電気が来ることも、水道が出ることも、通信がつながることも、正常に動いている限りは意識の外にある。それが見えているということ自体が、見えていない人とは違う世界にいるということだ。

そしてこの構造には、ひとつの脆弱性がある。誰かがそのレイヤーを注視している限りは問題は表面化しにくいが、誰も見ていないレイヤーが生まれたとき、破綻は不可視のまま進行する。

何のために残すのか

ストレージの選択を突き詰めていくと、最終的に行き着くのは「このデータは誰のためにあるのか」という問いだ。

その答えが「自分のため」であれば、やるべきことはシンプルになる。自分が生きている間、必要なデータに手が届く状態を維持すること。それ以上の冗長性は、多くの場合、過剰だ。

もし誰かに引き継ぎたいデータがあるなら、問題はストレージの選択ではなく、そのデータを他者が読み解ける形に整えておくことの方に移る。それはもはやストレージの話ではなく、ドキュメンテーションの話だ。

大抵の人にとって、信頼できるストレージがひとつと、その控えがひとつあれば十分だと思う。技術的な正解よりも大事なのは、自分が何に信頼を置いているかを自覚していることかもしれない。

Read more

Capture Oneに待望のネガフィルム変換機能が来た

2026年4月3日、Capture One 16.7.4 がリリースされた。目玉はなんといっても Negative Film Conversion(ネガフィルム変換) の搭載だ。これまで Cultural Heritage エディション限定だったネガ反転処理が、ついに通常の Capture One Pro / Studio でも使えるようになった。 何が変わったのか 従来、Capture One でネガフィルムをポジに変換するには、Cultural Heritage(CH)エディションを使う必要があった。CH は文化財デジタル化向けの専用製品で、Base Characteristics ツールに Film Negative / Film Positive モードが用意されていた。しかし一般の写真愛好家がフィルムスキャンのためだけに CH を導入するのは現実的ではなく、多くのユーザーは Lightroom とそのプラグイン(Negative Lab

By Sakashita Yasunobu

雨の中、歩くべきか走るべきか

傘を忘れた日の永遠の問い、歩くか、走るか、いやいっそ雨宿りをするのか。物理で決着をつける。 モデル 人体を直方体で近似。上面積 $A_{\text{top}}$(頭・肩)、前面積 $A_{\text{front}}$(胸・顔)。雨は鉛直一様(落下速度 $v_r$、数密度 $n$)、距離 $d$ を速度 $v$ で直線移動する。 人体の直方体モデルは、上から見た水平断面が $A_{\text{top}}$、正面から見た鉛直断面が $A_{\text{front}}$ の二面で構成される。移動方向は水平、雨は鉛直に降る。 受ける雨滴数は、上面が $n v_r A_{\text{top}

By Sakashita Yasunobu

T-GRAIN・Core-Shell・旧式乳剤の定量比較

Kodak T-GRAIN、Ilford Core-Shell、旧式立方晶乳剤。写真フィルムの性能を左右する三つの乳剤技術を、特許文献と数式に基づいて比較する。 1. 出発点: 旧式乳剤の構造と限界 T-MAXやDeltaが何を改良したのかを理解するには、まず従来の乳剤がどのようなものだったかを押さえておく必要がある。 1980年代以前、標準的なハロゲン化銀乳剤はAgBrやAgBr(I)の結晶が立方体(cubic)か不定形(irregular)の形をしていた。Tri-XやHP5の祖先にあたるこれらの乳剤では、結晶のアスペクト比(直径対厚さの比)はおおむね1:1から2:1。三次元的にほぼ等方的な粒子が乳剤層にランダムに散らばっていた。 この形態が感度と粒状性のトレードオフに直結する。立方晶粒子を一辺 $a$ の立方体として近似すると、表面積と体積、そしてその比は次のとおりである。 $$ S_{\text{cubic}} = 6a^2, \quad V_{\text{cubic}} = a^3, \quad \frac{S}{V} = \frac{6}

By Sakashita Yasunobu

クジラはなぜがんにならないのか

体が大きい動物ほど細胞の数が多い。細胞が多ければ、そのうちどれかががん化する確率も高くなるはずだ。ところが現実には、クジラやゾウのがん発生率はヒトよりも低い。1977年、疫学者リチャード・ピートがこの矛盾を指摘した。以来この問いは「ピートのパラドックス」と呼ばれ、比較腫瘍学における最大の謎のひとつであり続けている。 種の中では予測通り、種の間では崩れる 同じ種の中では、直感どおりの傾向が確認されている。身長の高いヒトはそうでないヒトよりがんの発生率がやや高く、年齢を重ねるほどがんは増える。細胞の数が多いほど、細胞分裂の回数が多いほど、がん化の確率は上がる。 しかし種を超えて比較すると、この関係が崩壊する。シロナガスクジラの細胞数はヒトの約1000倍にのぼるが、がんの発生率がヒトの1000倍になるわけではない。哺乳類全体を見渡しても、体サイズとがんリスクの間に明確な正の相関は長い間見つかっていなかった。がんの発生率は種が異なっても約2倍の範囲にしか収まらないとされてきた。体サイズの差は100万倍を超えるにもかかわらず。 ゾウが持つ余分ながん抑制遺伝子 最もよく知られた説明は

By Sakashita Yasunobu