発表文献

論文

  1. S. Matsushima, N. Shimizu, K. Yoshida, T. Ninomiya, H. Nakagawa“Exact Passive-Aggressive Algorithm for Multiclass Classification Using Support Class”,In Proceedings of SIAM International Conference on Data Mining (SDM), pp.301-314 (2010)
  2. 松島慎、清水伸幸、吉田和弘、二宮崇、中川裕志、「多クラス識別問題における Passive-Aggressive アルゴリズムの効率的厳密解法」、 情報・システムソサイエティ論文誌、電子情報通信学会、「情報爆発」特集号、 電子情報通信学会論文誌 D Vol.J93-D No.6 pp.724-732、2010 年
  3. 松島慎、佐藤一誠、二宮崇、中川裕志、「PA アルゴリズムにおけるラベルなしデータからの学習」、 日本データベース学会論文誌、日本データベース学会、Vol.9 No.1 pp.82-87 、2010 年
  4. 大岩秀和、松島慎、中川裕志 「特徴の出現回数に応じた L1 正則化を実現する教師ありオンライン学習手法」 情報処理学会論文誌:数理モデル化と応用 、Vol.4 No.3 pp84-93 、2011 年
  5. H. Oiwa, S. Matsushima, H. Nakagawa : “Frequency-aware Truncated methods for Sparse Online Learning”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 6912, pp.533-548 (2011)
  6. S. Matsushima, S.V. N. Vishwanathan, A. J. Smola : “Linear Support Vector Machines via Dual Cached Loops”, In Proceedings of ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp 177-185 (2012)
  7. H. Oiwa, S. Matsushima, H. Nakagawa : “Healing Truncation Bias : “Self-weighted Truncation framework for Dual Averaging” In Proceedings of IEEE International Conference on Data Mining (ICDM), pp 575-584 (2012)
  8. H. Oiwa, S. Matsushima, H. Nakagawa : “Feature-aware Regularization for Sparse Online Learning” Science China Information Sciences, Vol. 57 Issue 5 1-21, 2014
  9. K. Moriya, S. Matsushima, K. Yamanishi : “Traffic Risk Mining from Heterogeneous Road Statistics”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 1 – 10 (2015)
  10. S. Ji, H. Yun, P. Yanardag, S. Matsushima, S. V. N. Vishwanathan : “WordRank: Learning Word Embeddings via Robust Ranking” In Proceedings of Conference on Empirical Methods on Natural Language Processing (EMNLP), pp 658-668 (2016)
  11. S. Matsushima : “Asynchronous Feature Extraction for Large-scale Linear Predictors” In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 9851, pp 604-618 (2016)
  12. A. Demachi, S. Matsushima, K. Yamanishi : “Web Behavior Analysis Using Sparse Non-Negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 574-583 (2016)
  13. T. Lee, S. Matsushima, K. Yamanishi : “Traffic Risk Mining Using Partially Ordered Non-negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 622-631 (2016)
  14. K. Miyaguchi, S. Matsushima, K. Yamanishi : “Sparse Graphical Modeling via Stochastic Complexity” In Proceedings of SIAM International Conference on Data Mining (SDM), pp 723-731 (2017)
  15. S. Matsushima, Y. Hyokun, X. Zhang, S.V.N. Vishwanathan : “Distributed Stochastic Optimization of Regularized Risk via Saddle-point Problem”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS), pp. 460-476 (2017)
  16. T. Kobayashi, S. Matsushima, T. Lee, and K. Yamanishi: “Discovering Potential Traffic Risk in Japan using Supervised Learning Approach.”, IEEE International Conference on Big Data (BigData), pp 948-955 (2017)
  17. K. Moriya, S. Matsushima, K. Yamanishi: “Traffic Risk Mining From Heterogeneous Road Statistics,” IEEE Transactions on Intelligent Transportation Systems, Vol. 19, Issue 11, pp. 3662–3675, (2018).
  18. P. Raman, S. Srinivasan, S. Matsushima, X. Zhang, H. Yun, S. V. N. Vishwanathan: “Scaling Multinomial Logistic Regression via Hybrid Parallelism,” ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp. 1460-1470 (2019)
  19. Y. Fu, S. Matsushima, K. Yamanishi: “Model Selection for Non-Negative Tensor Factorization with Minimum Description Length,” Entropy 201921, 632.
  20. S. Matsushima, M. Brbić: “Selective Sampling-based Scalable Sparse Subspace Clustering,” Advances in Neural Information Processing Systems (NeurIPS). pp. 12416-12425 (2019)
  21. T. Lee, S. Matsushima, K. Yamanishi: “Grafting for combinatorial binary model using frequent itemset mining,” Data Mining and Knowledge Discovery34(1), pp. 101-123 (2020)
  22. S. Hayashi, M. Sugiyama, S. Matsushima: “Coordinate Descent Method for Log-linear Model on Posets,”  In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp. 99-108 (2020)
  23. M. Kobayashi, K. Miyaguchi, S. Matsushima: “Detection of Unobserved Common Cause in Discrete Data Based on the MDL Principle“, In proceedings of IEEE International Conference on Big Data (BigData), pp. 45-54 (2022)

口頭発表(学生)

  1. 上月正貴、松島慎「二変数間の相互作用を考慮した一般化加法モデルの効率的な学習」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  2. 林翔太、杉山麿人、松島慎「半順序構造上の対数線形モデルのための座標降下法」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  3. 西本洋紀、松島慎「対数線形モデルを基とした生成的分類器と識別的分類器のロジスティック汎化誤差の収束の比較」第23回情報論的学習理論ワークショップ、オンライン、2020年11月
  4. 上月正貴、松島慎「二変数間相互作用を考慮した一般化加法モデルとその効率的な学習」科研費シンポジウム機械学習・統計学・最適化の数理とAI技術への展開、オンライン、2020年12月
  5. 伊従寛哉、松島慎「全変動正則化付き加法累積ロジットモデル」 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  6. 三﨑滉太、松島慎「因果探索におけるAsymmetries手法とScore-Based手法のハイブリッド型アルゴリズムの設計に向けて」 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  7. 小林将理、西本洋紀、松島慎「MDL原理に基づくNML符号長を用いた離散変数の因果探索」第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  8. Ziyu Guo, Shin Matsushima”Learning DAG Graph Models without Identifiability from Sparse Inverse Covariance” 第46回情報論的学習理論と機械学習研究会、沖縄、2022年6月
  9. 小林将理、宮口航平、松島慎「MDL原理に基づく離散変数間の未観測共通原因の検知」第25回情報論的学習理論ワークショップ、つくば、2022年11月
  10. 伊従寛哉、武田優真、松島慎「TVACLMの動的計画法を用いた最適化」第25回情報論的学習理論ワークショップ、つくば、2022年11月
  11. : 武田優真、伊従寛哉、松島慎「全変動正則化を用いた加法モデルによる効率的な2値分類手法の研究」第25回情報論的学習理論ワークショップ、つくば、2022年11月
  12. 武田優真、松島慎「並列化および加速法を用いた全変動正則化付き一般化加法モデル」第26回情報論的学習理論ワークショップ、北九州、2023年11月
  13. 小林将理、宮口航平、松島慎「記述長最小原理に基づく混合データにおける未観測共通原因の検出」第26回情報論的学習理論ワークショップ、北九州、2023年11月