Publications

Papers

  1. S. Matsushima, N. Shimizu, K. Yoshida, T. Ninomiya, H. Nakagawa“Exact Passive-Aggressive Algorithm for Multiclass Classification Using Support Class”,In Proceedings of SIAM International Conference on Data Mining (SDM), pp.301-314 (2010)
  2. 松島慎、清水伸幸、吉田和弘、二宮崇、中川裕志、「多クラス識別問題における Passive-Aggressive アルゴリズムの効率的厳密解法」、 情報・システムソサイエティ論文誌、電子情報通信学会、「情報爆発」特集号、 電子情報通信学会論文誌 D Vol.J93-D No.6 pp.724-732、2010 年
  3. 松島慎、佐藤一誠、二宮崇、中川裕志、「PA アルゴリズムにおけるラベルなしデータからの学習」、 日本データベース学会論文誌、日本データベース学会、Vol.9 No.1 pp.82-87 、2010 年
  4. 大岩秀和、松島慎、中川裕志 「特徴の出現回数に応じた L1 正則化を実現する教師ありオンライン学習手法」 情報処理学会論文誌:数理モデル化と応用 、Vol.4 No.3 pp84-93 、2011 年
  5. H. Oiwa, S. Matsushima, H. Nakagawa : “Frequency-aware Truncated methods for Sparse Online Learning”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 6912, pp.533-548 (2011)
  6. S. Matsushima, S.V. N. Vishwanathan, A. J. Smola : “Linear Support Vector Machines via Dual Cached Loops”, In Proceedings of ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp 177-185 (2012)
  7. H. Oiwa, S. Matsushima, H. Nakagawa : “Healing Truncation Bias : “Self-weighted Truncation framework for Dual Averaging” In Proceedings of IEEE International Conference on Data Mining (ICDM), pp 575-584 (2012)
  8. H. Oiwa, S. Matsushima, H. Nakagawa : “Feature-aware Regularization for Sparse Online Learning” Science China Information Sciences, Vol. 57 Issue 5 1-21, 2014
  9. K. Moriya, S. Matsushima, K. Yamanishi : “Traffic Risk Mining from Heterogeneous Road Statistics”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 1 – 10 (2015)
  10. S. Ji, H. Yun, P. Yanardag, S. Matsushima, S. V. N. Vishwanathan : “WordRank: Learning Word Embeddings via Robust Ranking” In Proceedings of Conference on Empirical Methods on Natural Language Processing (EMNLP), pp 658-668 (2016)
  11. S. Matsushima : “Asynchronous Feature Extraction for Large-scale Linear Predictors” In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 9851, pp 604-618 (2016)
  12. A. Demachi, S. Matsushima, K. Yamanishi : “Web Behavior Analysis Using Sparse Non-Negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 574-583 (2016)
  13. T. Lee, S. Matsushima, K. Yamanishi : “Traffic Risk Mining Using Partially Ordered Non-negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 622-631 (2016)
  14. K. Miyaguchi, S. Matsushima, K. Yamanishi : “Sparse Graphical Modeling via Stochastic Complexity” In Proceedings of SIAM International Conference on Data Mining (SDM), pp 723-731 (2017)
  15. S. Matsushima, Y. Hyokun, X. Zhang, S.V.N. Vishwanathan : “Distributed Stochastic Optimization of Regularized Risk via Saddle-point Problem”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS), pp. 460-476 (2017)
  16. T. Kobayashi, S. Matsushima, T. Lee, and K. Yamanishi: “Discovering Potential Traffic Risk in Japan using Supervised Learning Approach.”, IEEE International Conference on Big Data (BigData), pp 948-955 (2017)
  17. K. Moriya, S. Matsushima, K. Yamanishi: “Traffic Risk Mining From Heterogeneous Road Statistics,” IEEE Transactions on Intelligent Transportation Systems, Vol. 19, Issue 11, pp. 3662–3675, (2018).
  18. P. Raman, S. Srinivasan, S. Matsushima, X. Zhang, H. Yun, S. V. N. Vishwanathan: “Scaling Multinomial Logistic Regression via Hybrid Parallelism,” ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp. 1460-1470 (2019)
  19. Y. Fu, S. Matsushima, K. Yamanishi: “Model Selection for Non-Negative Tensor Factorization with Minimum Description Length,” Entropy 201921, 632.
  20. S. Matsushima, M. Brbić: “Selective Sampling-based Scalable Sparse Subspace Clustering,” Advances in Neural Information Processing Systems (NeurIPS). pp. 12416-12425 (2019)
  21. T. Lee, S. Matsushima, K. Yamanishi: “Grafting for combinatorial binary model using frequent itemset mining,” Data Mining and Knowledge Discovery34(1), pp. 101-123 (2020)
  22. S. Hayashi, M. Sugiyama, S. Matsushima: “Coordinate Descent Method for Log-linear Model on Posets,”  In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp. 99-108 (2020)
  23. M. Kobayashi, K. Miyaguchi, S. Matsushima: “Detection of Unobserved Common Cause in Discrete Data Based on the MDL Principle”, In proceedings of IEEE International Conference on Big Data (BigData), to appear (2022)

Presentations

  1. M. Yoshida, S. Matsushima, S. Ono, I. Sato, H. Nakagawa “ITC-UT:Tweet Categorization by Query Categorization of On-line Reputation Management”, Conference on Multilingual and Multimodal Information Access Evaluation (CLEF 2010) Labs WEPS: SEARCHING INFORMATION ABOUT ENTITIES IN THE WEB, Padova, Italy
  2. 松島慎、清水伸幸、吉田和弘、二宮崇、中川裕志、 「サポートクラスによる Passive-Aggressive アルゴリズムの多クラス化」、 情報処理学会 第 192 回自然言語処理研究会、192-12、北見、2009 年 7 月
  3. 松島慎、清水伸幸、佐藤一誠、二宮崇、中川裕志、 「SPA アルゴリズムの半教師あり学習への応用」、 情報処理学会 数理モデル化と問題解決研究会、76、東京、2009 年 12 月
  4. 松島慎、清水伸幸、吉田和弘、二宮崇、中川裕志、 「多クラス識別問題におけるオンライン学習のための厳密な PA アルゴリズム」、 情報処理学会創立 50 周年記念第 72 回全国大会、3W-7、東京、2010 年 3 月
  5. S. Matsushima, H. Yun, S.V.N. Vishwanathan.「正則化付き経験リスク最小化における分散最適化法」日本応用数理学会 2014年度年会,東京,2014年9月
  6. 松島慎、「大規模なL1正則化問題のための座標降下法を用いたスキーム」第31回人工知能学会全国大会、愛知、2017 年 5 月
  7. 松島慎、「一般化加法モデルの全変動ノルムによる正則化」第20回情報論的学習理論ワークショップ、東京、2017年11月
  8. 上月正貴、松島慎「二変数間の相互作用を考慮した一般化加法モデルの効率的な学習」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  9. 林翔太、杉山麿人、松島慎「半順序構造上の対数線形モデルのための座標降下法」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  10. 西本洋紀、松島慎「対数線形モデルを基とした生成的分類器と識別的分類器のロジスティック汎化誤差の収束の比較」第23回情報論的学習理論ワークショップ、オンライン、2020年11月
  11. 上月正貴、松島慎「二変数間相互作用を考慮した一般化加法モデルとその効率的な学習」科研費シンポジウム機械学習・統計学・最適化の数理とAI技術への展開、オンライン、2020年12月
  12. 伊従寛哉、松島慎「全変動正則化付き加法累積ロジットモデル」 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  13. 三﨑滉太、松島慎「因果探索におけるAsymmetries手法とScore-Based手法のハイブリッド型アルゴリズムの設計に向けて」 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  14. 小林将理、西本洋紀、松島慎「MDL原理に基づくNML符号長を用いた離散変数の因果探索」第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  15. Ziyu Guo, Shin Matsushima”Learning DAG Graph Models without Identifiability from Sparse Inverse Covariance” 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  16. 小林将理、宮口航平、松島慎「MDL原理に基づく離散変数間の未観測共通原因の検知」第25回情報論的学習理論ワークショップ、つくば、2022年11月
  17. 伊従寛哉、武田優真、松島慎「TVACLMの動的計画法を用いた最適化」第25回情報論的学習理論ワークショップ、つくば、2022年11月
  18. 武田優真、伊従寛哉、松島慎「全変動正則化を用いた加法モデルによる効率的な2値分類手法の研究」第25回情報論的学習理論ワークショップ、つくば、2022年11月