End-to-End Time-Lapse Video Synthesis from a Single Outdoor Image[Nam+ CVPR19]

End-to-End Time-Lapse Video Synthesis from a Single Outdoor Image
Seonghyeon Nam, Chongyang Ma, Menglei Chai, William Brendel, Ning Xu, Seon Joo Kim
To appear in CVPR 2019
https://arxiv.org/abs/1904.00680

を読んだ. 非常に面白かった.

簡易箇条書きなまとめで申し訳のなさがあります.

1. Abstract

  • conditional image-to-image translationの枠組みで,End-to-Endで,単一画像屋外から時刻が変わっていくようなタイムラプス動画を生成する.
  • 屋外シーンの照明変化と時刻の間の相関を学習する.
  • 時刻ラベルが付いていると,時刻ラベルがないデータセットを用いて半教師あり学習を行う.
  • 既存手法では,スタイルの参照が必要であったが,提案手法では時刻ラベルのみで変換できる

2. 設定

2.1 問題定義

  • 入力画像Iと,時刻ラベルt \left( [0,1)\right)
  • \hat{I_{t}} = G(I, t)
  • 物の動きを考慮せず,連続した非線形な照明変化を学習する.

2.2 データセット

AMOSデータセット[Jacobs+ CVPR07]

  • 時刻ラベルが付いている.
  • 24時間撮影した監視カメラの動画
  • 世界中の35000個のweb cameraの映像
  • 実験では1,633 web cameraからの40,537動画を1,310,375枚画像へ
  • trainとvalを1533, 100 web cameraに分割

TLVDBデータセット[Shih+ ACM Trans03]

  • 時刻ラベルなし
  • プロの人達が撮影したアウトドア動画
  • 463動画から1,065,427枚の画像へ
  • その内の30動画をテストとして使用

3. Method

3.1 Multi-Frame Joint Conditional Generation

f:id:udooom:20190620154623p:plain:w300

  • AMOSデータセットA)のみで学習
  • データは[tex:(I{i}, t{i})]を含む
  • Dは,画像と時刻がペアかを見極める
  • 最初は単純なVanilla Encoder-Resblock-Decoderでやっていたが,出力がありえんヤバかったのでN(0,1)の一様分布からサンプリングされたshared latent variable zを用いて学習をすることにした.
  • zS_{A}間の時間的構造を表している
  • よって,\hat{I_{t}} = G(I, t, z)
  • 学習がうまくいかない原因としては,(1) 時刻の違いはあっても見た目が同じようなイルミネーションが多かったこと. (2) 場所や季節の変動をうまく学習できなかった
  • 入力動画が連続していると,動きを学習してしまうので,Augmentationで回転や左右反転などをした上で,入力動画のフレームは全て別の動画からサンプリングされたもので,時刻順にソートされたもの. なるほど.

Generator

  • conditionはdownsamplingされた特徴に加えられる
  • Conv-Resblock-Deconv

Discriminator

  •  Du Dcの2つから成り立つ
  • Du: 生成画像がReal or Fakeを判断
  • Dc: 生成結果 [tex: \hat{S{A}}] がビデオの連続した繋がりとして適切かを判断. つまり,[tex:\hat{I{t}}] がその時刻[tex:t{i}]に当てはまるか?,[tex:\hat{I}{t}]がその時刻で現れそうな色(夕焼けとか)をしているか?を判断

Adversarial Loss

f:id:udooom:20190620155542p:plain:w300 f:id:udooom:20190620155924p:plain:w300 f:id:udooom:20190620160209p:plain:w150

  • l_{u}: 通常のAdv loss.
  • l_{c}: condition付きAdv loss
  • l_{c}の赤線引いたところが,画像と時刻の情報が不一致なものをDに入力している
  • (これがないと,Discriminatorが有利すぎて,うまく学習できないんだろうなって感じがした. アドバイスください.)

3.2 Multi-Domain training

f:id:udooom:20190620161642p:plain:w300 f:id:udooom:20190620161656p:plain:w300 f:id:udooom:20190620161659p:plain:w300 f:id:udooom:20190620161703p:plain:w300

f:id:udooom:20190620161847p:plain:w300

  • AMOSデータセットだけだと,結果が微妙だったので,風景動画でリッチなアウトドアスタイルを含むTLVDBデータセットB)を利用
  • AMOSは監視カメラ映像なので,アウトドアみがない
  • 単純に合併させて教師無しで学習させても,お互いのドメインが違いすぎてうまく学習ができない
  • よって,TLVDBの時刻アノテーションがない部分を補える,半教師あり学習を提案

Model architectureとLoss

  • G_{B}: Aの時刻ラベルtと,Bの連続したフレームを用いて,時刻に合わせたスタイルが付与されるように生成する.(モデル図の実線)
  • D_{B}: Gへ入力したBの連続フレームと生成されたフレームのReal or Fakeを評価(モデル図の実線)
  • G_{A}: Gbの出力を受け取り,時刻の連続した変化で色はどう変化するか?のスタイルを学習するG
  • D_{Au}: Aのフレーム毎に違う動画からサンプリングされた画像を重ねて作った時刻が連続した動画(Sa)をReal, Gaの出力をFakeとして,Real or Fakeの計算
  • D_{Ac}: Sa, ~Sa, Ga(G(b(I,t,z)))を入力
  • l_{r}: Gaの出力で構造が変化しないためのL1距離

3.3 Guided Upsampling

f:id:udooom:20190620163137p:plain:w300

  • 128x128の動画を生成するのはきついので,64x64で生成して提案Upsamplingで512x512にする
  • (なんかここよくわからなかったので,いつか修正しておきます)
  • (動画生成,変換において解像度が高いと難しいのはものすごく同意した)

4. Experiment

f:id:udooom:20190620163943p:plain:w300 f:id:udooom:20190620164007p:plain:w300

4.1 定量評価

  • (実験はなかなかの闇)
  • 比較対象は,本物,[Li+ ECCV18]https://arxiv.org/abs/1802.06474, TLVDBの手法[Shih+ ACM Trans03]
  • 24枚の画像から,16フレームへの風景変化予測をする(合計: 384)
  • 各生成動画から,2 or 3フレームをランダムサンプリングして,合計71枚
  • AMTで高評価98%以上の人10人に本物か偽物かを聞いた(GAN専用の人なんているのか?)
  • 提案手法, 本物,[Li+ ECCV18], TLVDB[Shih+ ACM Trans03]は,60.6, 67.5, 34,1 44.9%の本物率

4.2 計算時間

  • 提案手法は,64x64の16フレームをGbがGPU-0.02s,CPU-0.8s
  • Guided upsamplingは64x64を512x512へと0.1s
  • [Li+ ECCV18]は,6.3s(768x384)
  • TLVDB[Shih+ ACM Trans03]は,58s (700ピクセル)

4.2 Ablation study

f:id:udooom:20190620164532p:plain:w300 + (Top: vanilla cGAN): 夕焼けみたいな情報は一切できずに,明るさだけを変化させてる + (Dを騙すのに一番そうするのがよかったっぽい?) + (Middle: supervised) : 監視カメラ情報だけなので,微妙 + (Bottom: semi-supervised): 風景データセットが加わったのでエモい結果にうぇい

f:id:udooom:20190620164535p:plain:w300 + Gaの役割 + (手前が暗くなってる) +( 全体的に見て,よくなってるのかの評価できないし,何も言えない) + (データセット依存の特徴から,Discriminatorをうまく騙せるように学習するので,データセット依存な気がする)

5. Conclusion

f:id:udooom:20190620165149p:plain:w300

  • 参照スタイルなしで変えれる
  • ありえん暗闇 -> 昼への変換は,あんまりできない
  • (多分,スタイルが違いすぎる?)
  • 人工物のあかり(窓からの漏れた光)みたいなのは生成できないっぽい(データ数が少ないから?)
  • (動きは考慮していないので,動きも考慮しつつ夕焼けみたいにスタイルも変換できたら面白そう,リフティングしながらいつのまにか夕焼けにできる. 超ゆっくりリフティングを何百倍にも早送りてきになる?物理法則は無視してるが)

最後に

MIRU19で,動画のフレーム予測のポスター発表をするので,今回のようなタスクや,動画のフレーム予測やGANなどの研究について議論できたらいいなと思います. 私は初心者ですが.

夢の香 特別純米酒 國権

授業中にあまり挙手をしないタイプの陰キャみたいな味わいだが,二口味わうと,面白さが伝わってきた

こいつインキャに見せかけたヨウキャだ.

驚いた.

どうやら,夢の香という福島県が独自に開発した酒造好適米から作られたお酒で,ふくしまブランドの名に恥じないような美味しさである

しかし,この酒の良さを最大限まで理解できるような舌を持ち合わせていないので,また会うことはないだろう.

f:id:udooom:20190618223143j:plain

www.kokken.co.jp

喜楽長 特別純米酒 若苗

滋賀県近江市にある喜多酒造株式会社の酒

その中でも今回は夏にぴったりなお酒

スッキリとした辛口な味わいに加え,甘さはあまり感じることなく透き通るような酸味と仲良しに

夏にぴったりでとてつもなく美味しい

脳裏には風に揺られる稲の様子が浮かび非常に楽しい気分に誘われた

f:id:udooom:20190618223227j:plain

www.jizake.com

Streamlined Dense Video Captioning

Streamlined Dense Video Captioning
Jonghwan Mun, Linjie Yang, Zhou Ren, Ning Xu, Bohyung Han
CVPR 2019
https://arxiv.org/abs/1904.03870

Abstract

Contiributions

  • 従来の1動画1インプットではなく,動画をフレームごとに連続で入力し続けるような手法を提案した.
  • 提案手法(The proposed event sequence generation network )は,イベント間の時間的関係性をモデル化する.
  • 強化学習を組み合わせて,キャプション間が一貫するのと,キャプションの質の向上をもたらすようなエピソードとイベントレベルの報酬を設計した.
  • ActivityNet Captions datasetでSoTA.

    Dense VIdeo Captioning

  • イベントを認識して,キャプションを生成するタスク.

f:id:udooom:20190606194546p:plainf:id:udooom:20190606195049p:plain

Dense-Captioning Events in Videos
Ranjay Krishna, Kenji Hata, Frederic Ren, Li Fei-Fei, Juan Carlos Niebles
16 pages, 16 figures
https://arxiv.org/abs/1705.00754

Method

f:id:udooom:20190606201353p:plain

1. Overview

  • 従来: イベント検出に続いて,キャプション生成.
  • イベントとキャプションの負の最尤推定を合計を最小化することで学習. f:id:udooom:20190606200853p:plain
  • ビデオ中のイベントは時間的な依存関係より単一トピックに関するストーリーに基づく必要があるので,イベントの順序を追うことが必要. これを考慮して,イベントの連続性とそれに続くキャプション生成を高密度でやるように定式化. f:id:udooom:20190606201312p:plain
  • ビデオが入力され,event proposal networkがイベントを提案する.
  • event sequence generation networkがイベント提案の候補の一つを選ぶことで一連のイベントを提案する.
  • proposed sequential captioning networkが選ばれた提案からキャプションを生成する.

2. Event Proposal Network(EPN)

  • イベント候補を選択する.
  • Single-Stream Temporal action proposals(SST)[Buch+ CVPR17]を使用.
  • 入力は固定長.
  • 各セグメントをイベント提案の終点として扱うことで,各tでGRUからk次元出力ベクトルで表されるk個のセグメントから一致する開始点を認識する.

3. Event Sequence Generation Network (ESGN)

  • イベント提案候補集合が与えられ,ESGNは相関の高い一連のイベントを選んでエピソードを作る.
  • Attentionモジュールを使うことで,RNNで入力集合上で分布を生成するようなPointerNetwork[Vinyals+ NIPS15]を使う.
  • PointNetは提案されたイベントの順序つきサブセットを選び,時間依存性を考慮してキャプションを生成するのに適している. f:id:udooom:20190606204212p:plain f:id:udooom:20190606204303p:plain

4. Sequential Captioning Network (SCN)

  • EpisodeRNN,EventRNN($RNN_{e}$)で成り立つ.
  • EpisodeRNNは,検出されたイベントを入力としエピソードの状態をモデル化する.
  • EventRNNは,エピソードの現在のコンテキストに基づいて条件づけられた各提案されたイベントに対して,キャプションを生成していく. f:id:udooom:20190606204806p:plain

力尽きた

A Closer Look at Spatiotemporal Convolutions for Action Recognition[Tran+ CVPR18]

A Closer Look at Spatiotemporal Convolutions for Action Recognition[Tran+ CVPR18]の解説を行う.

まとめ

  • 2DResNetがSports-1M(動画ベンチマークデータセット)において,SoTAに近い精度でAction Recognitionができる. でも,2DCNNってモーションのパターンや時間的情報をモデル化できないのに,えもいなあ. そもそも動画は,行動のクラス情報がシーケンス内で性的フレームの中にも含まれているので時間を使った推論っていらないんじゃね?ってなった.
  • 上記の問題点を考えるために,3DCNNの役割について議論をする. でも,結構3DCNNについてはやられているので,residual learningをしているという縛りをつけて再考をする.
  • 提案手法1. Mixed Convolution. ネットワークの最上層で2DCNN,その後の初期層で3DCNNを使うと,2DResNetより3~4%高い精度が出た. 加えて,3倍以上のパラメータを持つ3DResNetと同等の精度が出る.
  • 提案手法2. R(2+1)D. 3DCNNを使うのではなく,2DCNN + 1DCNNを使う. 3DCNNと同じパラメータ数だが,非線形化するところが2倍になるので,複雑なモデルを学習できてえもくなる. 加えて,この分解がパラメータを最適化しやすいようにする. ResNetのConvを全部(2+1)Dにしたら,KineticsとSports-1MでSoTA.
  • Factorized Spatio-Temporal Convolutionak Networks[Sun+ ICCV2015]に近い. networkをfactorizationしようとするが,R(2+1)Dはlayerでしている.
  • Pseudo-3D network[Qiu+ ICCV2017]とも近い. 2DResNetをビデオに適用しており,3つの異なるResBlockを提案している.(その論文の図を見てください. 見ればわかります.)(A)空間から時間,(B)空間と時間の並列,(C)空間のskip-connection. これはネットワークの深さによってBlockが変わるが,R(1+2)Dはずっと均一.

resblock
Pseudo-3DのResBlock(論文より引用)

手法

R2D

(a)R2D

入力x (3 x L x H x W)があって,2DCNNだと空間方向は関係ないので,x (3L x H x W)にリサイズして入力する.

Mixed Convolution

仮説として,モーションモデリング(3DCNN)は初期層で有用だが,抽象化された後期層ではモーションや時間的モデリングは必要ないことがある.
なので,最初3DCNN使うが,最後の方で2DCNNに変える. (b)では4,5を3DCNNに変えているので,MC4と呼ぶ.
また,対立仮説として,2DCNNを使って外観情報を先に取り込むことで,有益になるかもしれないので,上記と逆のこともする. これをreversed MC3は(c)になる.

R(2+1)D

3DCNNを2DCNN + 1DCNNで近似する(e). メリットは + パラメータ数同じだが,ReLUの数が2倍になるので非線形数2倍になる. 非線形を増やすと複数の小さなフィルタが大きなフィルタの効果と同じような役割になる(VGGのろんぶ〜んに書かれている.)

(a) 3DCNN, (b) 2D + 1D CNN

実験

  • KineticsとSports-1Mをスクラッチからのモデル評価.
  • 上記モデルをUCF101とHMDB51でfinetuningして評価.

spatio temporal convの比較

  • Kinetics validation datasetによる,ResNet18のCNNを変えた時の結果

  • Kinetics validation datasetでの縦軸: 精度,横軸: 計算コストの結果 青: R(1+2)D,赤: R2D,紫: R3D
    青は精度ずば抜けて高くて,R3Dとほぼ同じ計算量である.

video lebelでの予測の比較

(a) クリップ数と精度,(b) top-1 accuracy.

34-layer R(2+1)D net

Sports-1Mでの結果

Kinetics

Finetuning

UCF101とHMDB51

Conclusion

  • Action Recognitionにおける,異なるspatiotemporal convollutionsの効果を調べた.
  • singleモデルのResNetに取り組んでSota出した.

感想

  • two-branch networkで片方R(2+1)D,もう片方3DCNNで異なる意味を持つ特徴抽出とかやったらなんかわかりそう?
  • 結局,Action Recognitionにおいては時間的特徴はあんまり関係ないのか?もし,例えばこれがフレーム予測生成などになると空間的特徴は必要だと思うので実験してみたい.

次読む論文

気になった人へ + Non-local Neural Networks[Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He, CVPR18], https://arxiv.org/abs/1711.07971

一年の振り返り2018

年越しうどんを食べながらの執筆. クリスマスプレゼントは無限の進捗を祈ってましたが,そんなものはなく積まれた論文だけが残ってました.

もう2018年が終わったらしいので去年の振り返りを書いておきます. 恐らく来年の今頃には覚えていないと思うので. でも,なんだかんだでGoogleカレンダーにあるので見ようと思ったら見返せるし科学のちからってすげー.

1月

成人式

気づいたらぶっちしてた.

Retty

Rettyさんでインターンしてて,無限に三田二郎行ってた記憶がある.

2月

個人開発

RailsとVueで何か作ってた. 懐かしい記憶になってる.

Retty

引き続きお店開拓してたと思う.

i☆Ris&WUG! バレンタインLIVE!!

昼夜行って,i☆Risの極上スマイルでオタク満開スマイルになって満足した記憶がある.

3月

Retty

新年度から忙しくなるので,辞めた. Rettyさんは今までバイト行った中で物凄く雰囲気よかったし,最高でした. PHPやVue.jsが書ける人 or やってみたい人は本当におすすめです. 初叙々苑も決めました.

DEIM2018

12,1月で論文執筆まで友達と先輩とやって論文提出して初めて学会にいった. この時からハッカソンより学会の方が面白いやんけってなって,ハッカソンに出ることは少なくなった.

久保田未夢 わんわんおーこく2018 春 姫様と余興

昼夜行った. 久保田未夢が可愛すぎてもう死ぬかと思った.

なんとかハッカソン

カレンダーにハッカソンDJタイムプリパラという記録があるが,なんかアニクラ(無限にオタ芸打つやつ)に行った後に一人でハッカソン行って徹夜でもの作った記憶がある. LINE Pay APIが出たばっかなので使った記憶.

4月

B3になった

B3になってインターンも辞めたので暇になって研に篭るようになった. 色々あって4月から入ってた.

i☆Ris 4th Live Tour 2018~WONDERFUL PALETTE~ 葛飾公演

セトリ覚えてないけど久保田未夢はきっと可愛かった.

5月

SPAJAM

ハッカソンなのに自分のlocalでDockerfileがなぜか動かずにコード書かなかった. 爆笑ものである. でもチームの人が優秀すぎて優秀賞貰ってしまったし本当に周りが優秀なことが証明されてた.

BiSH "TO THE END"

初めてBiSHのライブ行ったけどエモかった. BiSHさんレコード大賞のなんかおめでとうございます.

i☆Ris 4th Live Tour 2018~WONDERFUL PALETTE~ 埼玉

昼夜参加. セトリ覚えてないけど久保田可愛かったと思う.

なにしたらいいかまったくわからなかったので無限に論文読んでた.

LAWSON presents TrySail Second Live Tour “The Travels of TrySail

TrySail無限に楽しかった. センターステージ近くて人権しかなかった.

6月

人工知能学会

名前が厳ついので参加した. ポスターでは他のとこより無限に人が来てたらしい. 知り合いのオタクとプリチャン筐体ずっとしてたら終電逃して無限に歩いて帰った記憶がある.

i☆Ris 4th Live Tour 2018~WONDERFUL PALETTE~ 中野

昼夜参加. これは覚えてる. 演者がサイン入りボールを投げるところで,久保田未夢が自分に向いて投げてくれたのに目の前の黄色いオタクが無限のオタクジャンプで奪って萎えてた. まあしょうがない. でも多分エモかった.

7月

無限に暑かったの覚えてる.

Tokyo 7th シスターズ メモリアルライブ『Melody in the Pocket』 in 日本武道館

ナナシスライブでバケモンになった記憶がある. オタクはラバxラバというワードで膝から転げ落ちる.

8月

MIRU2018

初めて画像系の国内学会に来た. 北海道が最高すぎた. ポスターも口頭も全部面白かったし立地も最高. 無限に楽しかった.

長野に幽閉

単位が足りなくて長野に幽閉される授業を取ったが,これの2ヶ月後に単位は常に足りていたことが判明して何だったのかよくわからなくなったが,楽しかったのでよかった. 大学の宇宙観測所に行って宇宙について学んだが,エモかった.

富士山

研の行事で富士山に登った. スニーカーで行ったのを無限に後悔してるので,登山靴は買いましょう.

TOKYO IDOL FESTIVAL 2018 1日目

i☆Ris芹澤優見に行ったら色々楽しくて,クソ暑い中倒れそうになるくらいバカになった気がする. 夏の久保田未夢可愛かったなあ. やっぱり汗をかいた久保田さん好き.

Wake Up, Girls! FINAL TOUR- HOME – ~ PART Ⅰ Start It Up, ~ 埼玉

昼夜参加. MCの動画で泣いてそのまま16歳のアガペーで無限に叫んでた記憶がある. WUGさんのライブ不満が一つもないし最高. 3/8(金)のSSAでの解散ライブも皆さん行きましょう.

Animelo Summer Live 2018 “OK!” 3日目

i☆Ris見に行ってた. セトリバケモンすぎてバカになってて記憶があんまりない. ミルキィホームズでそらまる先輩とお揃いの衣装きてた久保田が無限に嬉しそうで泣いてた.

9月

ECCV2018

ECCV2018のart workshopに採択されてた. ECCV論文無限に読んでた. ECCV 2018 Workshop

夏休みむげんに論文読んでたと思う. cvpaperのでECCV論文無限に読んでたしそれ以外でも読んでた.

プリパラ&キラッとプリ☆チャンAUTUMN LIVE TOUR み~んなでアイドルやってみた! 東京

キラッとコーデの久保田未夢が可愛すぎて鼻血出た. まじで最高すぎた.

10月

ACM Multimedia

初めての国際会議. 自分の分野のトップカンファレンスに参加した. この学会のおかげで無限にモチベ上がった. 論文から知った推しの研究者と写真を撮ったり,best paperの口頭発表がレベルが高すぎてなんじゃこりゃってなったり,強者の方と焼肉に行ったり,刺激的すぎた. 深層学習,computer visionの国際会議って本当に中国人しかいないんですね. シンガポール大学に無限に行きたくなった. 自分のポスターにそのシンガポール大の先生と推しの人が一緒に来ていつの間にか話してたらしい. エモいな〜〜

ウマ娘 プリティーダービー2nd EVENT「Sound Fanfare!」

初めてウマ娘の現場に行ったけど,ウマ娘自体がアニメエモすぎるし,うまぴょい伝説推しすぎなのは否めないが無限に好きなのでバカになってた. 高野麻里佳さん(サイレンススズカ役)の人が至近距離で無限に踊っててガチ恋して公演後床転がってた気がする.

久保田未夢山北早紀の虹色☆秋まつり!

慶應の学祭イベント. アイドルしてない素の久保田さんはなんか久保田って感じがして久保田.

11月

VRST2018

国際会議. これを発表してたら,取材され爆笑しながら答えてた. newswitch.jp

IEEE VR投稿

NAISTの方と共著でフルペーパーを出した. 自分としてもフルペーパーは初でした. 2columns 8pagesは長いですね. 分野の違う二人で共著で論文をやるってことが初めてで色々戸惑ったが,NAISTの先生が素晴らしすぎました. 面白いアイデアなので是非採択されて欲しいのと,NAISTが自分には向いてない環境なのがわかった.

i☆Ris 6th Anniversary Live ~Lock on♡ 無理なんて言わせないっ!~

i☆Ris6周年ライブ. これに行くために1年間生きてきたと言っても過言ではない. もう席も6列目で久保田さん無限にレスくれるし大好き久保田さん. 気づいたらライブ終わってた.

Trial Live Performance Tokimeki Challenge♪ Vol.2 〜歌うよ!ときめきアイドル2〜 夜の部

ピンチケで行った. 曲が強かった. けど,コンテンツが終わってしまうらしい.

12月

NIPS2018

NIPSwsに共著として入ってたが,特に何もなく終わった. おめでたい.

cvpaper.challenge合宿

2泊3日で筑波の産総研での合宿. 一年で一番研究に真剣になってたと思う. 周りも優秀な方しかいないしとても良いコミュニティであると思う. 勉強会をするらしい. Dの先輩とアツくアイカツを語り合ったのが最高すぎた.

nlpaper-challenge.connpass.com

アニメJAM2018

昼夜参加. 神イベントだった. このイベントの久保田未夢が一番可愛かった. 席も良すぎた最高.

み~んなでキラッとプリティーライブ2018

昼しか行かずに後悔した. 乙女アテンションプリーズの2番の久保田未夢さんが可愛すぎて涙流してた.

www.youtube.com

Wake Up, Girls! FINAL TOUR – HOME – ~ PART Ⅱ FANTASIA ~ 神奈川(横須賀)

昼のみ. これがWUG最後のライブか...と思ってたら夜公演でSSAで解散ライブするよ!って告知来たらしく,現地いたらもうタチアガレ!なくなってたんだろうなって思った. 号泣しながらジャンプしてた. あと雨上がりのミライでバカになった.

まとめ

思い返せば,B3なので普通の授業に加えて,省いた部分もあるが上記のことがあってなかなか詰まってた気がする. 2019年は院試に加え,i☆Risの5thツアー,プリチャンツアー,4月には出したい国際会議の締め切りがあるので,それまで頑張ろう. 見直して思うけど,研究とライブしか無くて人生って感じがする.