データスペースがどんな感じでここまで来たかという経緯を、私はどうしても技術的な変遷でしかみえてませんが、認識をお話したいと思います。
1.ユビキタスの時代(2004〜)
まず最初は、2000年頃のユビキタスです。u-Japan政策が2004〜2006年のあたりです。ユビキタスといえば、IoTの方で、クラウドやビッグデータ側というより、どちらかというとエッジの話です。この頃ユビキタスは、日本は世界的にも結構ブイブイ言わせている分野で、結構プレゼンスあったと思います。ユーザ端末側も、i-modeやガラケー全盛時代だと思います。
2.ITUでの取組(2005〜2012)
私の関わりでいうと、当時ITUの事務総局長が内海さんという総務省出身の日本人の方で、なにか新しいことをやりたいということで、ITUの標準化にユビキタスを取り上げようということになりました。その時に、ITUなので、ネットワークという言葉がよいだろうということもあり、The Internet of Things というテーマでStudyを始めました (2005)。私もそのころ、巻き込まれ、各種勧告案のコンビーナーをしまして、最終的にはITU-T H.621が成立する2012年まで7年位ITUで活動しました。自分としては、国際標準化活動を随分勉強させてもらいました。
確か同時期に、欧州勢を中心にして、インターネットのガバナンスをITUにもっていこうという議論がなされていたと思います。ITUは国連の下部組織であり、通信を扱い、かつ世界最古の標準化団体として由緒正しいところなのです。しかし、結局、そうはならず、今のようになっているわけ。インターネットの主導権をITUに持ってこれなかった悔しさがあり、せめて「モノのインターネット」はITU(国連)で扱おう、ということで、ITUではUbiquitousという用語を使わず、わざわざIoTを使ったと記憶しています。当時、IoTの前に”The”をつけて、”The Internet of Things”と呼んでいました。
それはさておき、ITU-Tでの標準化は、IoTの中でも特に、電子タグ(=RFID)に関わる部分がNID (Networked ID)という分野になりました。そこでは、ユビキタスの技術を、ITUの活動のスコープに収めるために、やや独自の解釈がなされており、タグにあるIDをキーとして、ネットワークからマルチメディアデータを取り出すという標準化になりました。ITU-T H.621 (2008) やF. 771 (2008)、H.642 (2012) といった一連の国際標準になりました。他方、USN(ユビキタスセンサーネットワーク)の標準化もありましたが、私はあまり関わりませんでした。
3.IoT研究からIndustrie 4.0に(2008〜2011)
この時、欧州勢はこのIoTの研究を始めて、CASAGRAS (2008)、CASAGRAS2 (2010) とかいくつかの研究プロジェクトがはじまります。比較的先行していた、日本や韓国もCASAGRASのメンバーになり、研究が進みました。そして、それが最終的にはIndustrie 4.0 (2011)という形になっていきます。欧州版ユビキタスですな。
当時、IoTが随分進んで、エッジのデータを集約するPFが必要だよなっていうIoTのデータPFがいろいろ開発されます。一番有名なのは、Pachube (2007) ではないかと思います(後に、Xively, 2013, 、Xively, 2013, Google IoT Cloud 2018)。ほかもいろいろありました。結構ラボレベルの実装が楽しい時代でした。また、当時MSもGoogleも、ユースケースは限定されてますが、ヘルスやスマートハウスを念頭においたサービスが立ち上がりますが、今考えると時期尚早だったのか、ほぼ挫折します(Google Health が2008年、Microsoft HealthVaultが2007年)一方で、Intelを中心として、データをクラウドに集めずに、分散管理しよう、つまりエッジを大事に(インテルなので)しようという、医療系デバイスのデータ連携の仕組みで、コンティニュアヘルスアライアンス (2006) なんていうのもありました。これなどは、今のデータスペースにかなり似てます。で、IoTのPFとして存在感を出したものが、FIWARE (2011〜)でした。IoTのセマンティックスを扱うところに、記述論理であるRDFの枠組みを取り入れた、NGSIがありました。
4.日本のデータ基盤の取り組みの始まり(2011〜2016)
これとまた別の方向から、データ基盤の取り組みがありました。日本だと、東日本大震災 (2011) の時に、データに関する課題が顕在化しました。被災時に自治体を超えて、住民票データから被災者名簿すら作れなかったと。今までの技術開発研究は何だったのか?そこで、ちゃんとデータ連携ができるようにしようと掛け声がかかる。で、当時ちょうどNoSQLの流行り始めた時代P2Pも出てきてたし、この時は、DHT (Distributed Hash Table) のような技術や、DCN (Data Centric Network) などもあり、ちょうど技術的にもそのあたりが旬だった。いろいろ模索した上で、最初の着地点がオープンデータだった。ここから日本のオープンデータがはじまり、data.go.jp (2013)などをつくって、自治体のオープンデー化進めて、いまでは90%近くの自治体がオープンデータするという、当時からすると雲泥の差の進展。情報銀行 (2017)、PDS(Personal Data Store)、データ取引市場もそのあたりだったかな。
このあたりの研究、ざっくりとすると、もっとも身近なのがP2Pで、Napsterが1999、WinMXが2001、国内でよく知られるWinnyが2002、BitTorrentが2001と、1990年代後半から2000年代のはじめのころが盛ん。同時期、DHT (Distributed Hash Table)は、代表的な研究にChort, Pastry, Tapestryとかあって、それは論文とかで出てきたのは古くて、2001年とかそのあたり。また、DCN(Data Centric Network)については、米国でまずICN (Information Centric Network)として2006年位から始まってて、日本だとNICTが2010年代にDCNとして研究を進めたって流れでしょうか。いまのBlock Chainの始まりのSatoshi NakamotoのBitcoinのペーパーが2008年という感じです。日本で、政策的にもデータ基盤やっていこうという時期には、すでにこれらの研究開発や普及があって、技術的な材料はだいぶ出揃ってた感じでした。
5.欧州はIndustrie 4.0からデータスペースへ(2011〜現在)
他方欧州では、Industrie 4.0はIoTも大事だが、そこから取れたデータを使ったMass Customization的生産方法論が大事だということで、データが大事にされ、ドイツのIDSA (Industrial Data Space Association) (2014)となっていく。それがいつのまにか、製造業以外にも横展開され、同じIDSAの名前でInternational Data Space Associationとなっていく(2016)。それからGaia-X (2020)とかCatena-X (2021)とか、にょきにょきいろいろ出てくるわけだ。
6.日本はSociety 5.0からデータスペースへ(2016〜現在)
日本では、日本のユビキタスを輸入したドイツの例のIndustrie 4.0が逆輸入されてSociety 5.0 (2016)となっていく。このSociety 5.0を具体的な施策にしたものが主に2つ。1つが分野間データ連携基盤、これはSIP第二期 (2018〜2022)で研究開発が始まる。もう1つがスマートシティ。Society 5.0での肝になる実世界のデータ連携基盤は、スマートシティの世界では都市OSと呼ばれる。都市OSを中核にすえたスーパーシティ構想が2018年、デジタル田園都市国家構想が2021年である。なので、日本では、データスペースのほぼ同義語として、データ連携基盤、都市OSという言葉も流通して使われている。今となりゃ、「データ連携基盤」「都市OS」、どちらもデータスペースというわけだ。SIP第二期の成果のデータ連携基盤や、スマートシティの都市OSの利活用拡大ということで、2021年にデータ社会推進協議会(DSA)が設立されて、DATA-EXプロジェクトがはじまるわけです。そして、今回AIとデータスペースの融合を目指して、xIPFコンソーシアムの設立となった(2025)という流れです。
ああ、長かった…