発表文献

論文

  1. S. Matsushima, N. Shimizu, K. Yoshida, T. Ninomiya, H. Nakagawa“Exact Passive-Aggressive Algorithm for Multiclass Classification Using Support Class”,In Proceedings of SIAM International Conference on Data Mining (SDM), pp.301-314 (2010)
  2. 松島慎、清水伸幸、吉田和弘、二宮崇、中川裕志、「多クラス識別問題における Passive-Aggressive アルゴリズムの効率的厳密解法」、 情報・システムソサイエティ論文誌、電子情報通信学会、「情報爆発」特集号、 電子情報通信学会論文誌 D Vol.J93-D No.6 pp.724-732、2010 年
  3. 松島慎、佐藤一誠、二宮崇、中川裕志、「PA アルゴリズムにおけるラベルなしデータからの学習」、 日本データベース学会論文誌、日本データベース学会、Vol.9 No.1 pp.82-87 、2010 年
  4. 大岩秀和、松島慎、中川裕志 「特徴の出現回数に応じた L1 正則化を実現する教師ありオンライン学習手法」 情報処理学会論文誌:数理モデル化と応用 、Vol.4 No.3 pp84-93 、2011 年
  5. H. Oiwa, S. Matsushima, H. Nakagawa : “Frequency-aware Truncated methods for Sparse Online Learning”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 6912, pp.533-548 (2011)
  6. S. Matsushima, S.V. N. Vishwanathan, A. J. Smola : “Linear Support Vector Machines via Dual Cached Loops”, In Proceedings of ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp 177-185 (2012)
  7. H. Oiwa, S. Matsushima, H. Nakagawa : “Healing Truncation Bias : “Self-weighted Truncation framework for Dual Averaging” In Proceedings of IEEE International Conference on Data Mining (ICDM), pp 575-584 (2012)
  8. H. Oiwa, S. Matsushima, H. Nakagawa : “Feature-aware Regularization for Sparse Online Learning” Science China Information Sciences, Vol. 57 Issue 5 1-21, 2014
  9. K. Moriya, S. Matsushima, K. Yamanishi : “Traffic Risk Mining from Heterogeneous Road Statistics”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 1 – 10 (2015)
  10. S. Ji, H. Yun, P. Yanardag, S. Matsushima, S. V. N. Vishwanathan : “WordRank: Learning Word Embeddings via Robust Ranking” In Proceedings of Conference on Empirical Methods on Natural Language Processing (EMNLP), pp 658-668 (2016)
  11. S. Matsushima : “Asynchronous Feature Extraction for Large-scale Linear Predictors” In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS) 9851, pp 604-618 (2016)
  12. A. Demachi, S. Matsushima, K. Yamanishi : “Web Behavior Analysis Using Sparse Non-Negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 574-583 (2016)
  13. T. Lee, S. Matsushima, K. Yamanishi : “Traffic Risk Mining Using Partially Ordered Non-negative Matrix Factorization”, In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp 622-631 (2016)
  14. K. Miyaguchi, S. Matsushima, K. Yamanishi : “Sparse Graphical Modeling via Stochastic Complexity” In Proceedings of SIAM International Conference on Data Mining (SDM), pp 723-731 (2017)
  15. S. Matsushima, Y. Hyokun, X. Zhang, S.V.N. Vishwanathan : “Distributed Stochastic Optimization of Regularized Risk via Saddle-point Problem”, In Proceedings of European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML PKDD), Lecture Notes in Computer Science (LNCS), pp. 460-476 (2017)
  16. T. Kobayashi, S. Matsushima, T. Lee, and K. Yamanishi: “Discovering Potential Traffic Risk in Japan using Supervised Learning Approach.”, IEEE International Conference on Big Data (BigData), pp 948-955 (2017)
  17. K. Moriya, S. Matsushima, K. Yamanishi: “Traffic Risk Mining From Heterogeneous Road Statistics,” IEEE Transactions on Intelligent Transportation Systems, Vol. 19, Issue 11, pp. 3662–3675, (2018).
  18. P. Raman, S. Srinivasan, S. Matsushima, X. Zhang, H. Yun, S. V. N. Vishwanathan: “Scaling Multinomial Logistic Regression via Hybrid Parallelism,” ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), pp. 1460-1470 (2019)
  19. Y. Fu, S. Matsushima, K. Yamanishi: “Model Selection for Non-Negative Tensor Factorization with Minimum Description Length,” Entropy 201921, 632.
  20. S. Matsushima, M. Brbić: “Selective Sampling-based Scalable Sparse Subspace Clustering,” Advances in Neural Information Processing Systems (NeurIPS). pp. 12416-12425 (2019)
  21. T. Lee, S. Matsushima, K. Yamanishi: “Grafting for combinatorial binary model using frequent itemset mining,” Data Mining and Knowledge Discovery34(1), pp. 101-123 (2020)
  22. S. Hayashi, M. Sugiyama, S. Matsushima: “Coordinate Descent Method for Log-linear Model on Posets,”  In Proceedings of IEEE International Conference on Data Science and Advanced Analytics (DSAA), pp. 99-108 (2020)

口頭発表(学生)

  1. 上月正貴、松島慎「二変数間の相互作用を考慮した一般化加法モデルの効率的な学習」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  2. 林翔太、杉山麿人、松島慎「半順序構造上の対数線形モデルのための座標降下法」第22回情報論的学習理論ワークショップ、名古屋、2019年11月
  3. 西本洋紀、松島慎「対数線形モデルを基とした生成的分類器と識別的分類器のロジスティック汎化誤差の収束の比較」第23回情報論的学習理論ワークショップ、オンライン、2020年11月
  4. 上月正貴、松島慎「二変数間相互作用を考慮した一般化加法モデルとその効率的な学習」科研費シンポジウム機械学習・統計学・最適化の数理とAI技術への展開、オンライン、2020年12月