Skip to main content

Mondelli Group

Data Science, Machine Learning und Informationstheorie

Wir befinden uns inmitten einer Revolution der Informationstechnologie, in der Daten die wichtigste Ware darstellen. Die Auswertung einer explodierenden Zahl von Datensätzen macht die Behandlung von komplexen Inferenzproblemen notwendig. Die Mondelli Gruppe arbeitet an der Entwicklung mathematischer Lösungen. Diese Inferenzprobleme erstrecken sich über verschiedene Gebiete und entstehen in vielen Applikationen aus den Ingenieurs- und Naturwissenschaften. Die Mondelli Gruppe konzentriert sich insbesondere auf kabellose Kommunikation und maschinelles Lernen. Das Ziel kabelloser Kommunikation in einem Übertragungskanal ist, codierte Information als Botschaft zu senden und Maße wie Komplexität, Zuverlässigkeit, Latenz, Durchsatz und Bandbreite zu optimieren. Das Ziel des maschinellen Lernens ist zu verstehen, wie viele Samples genügende Information übermitteln, um eine gewisse Aufgabe zu erfüllen, und die besten Methoden herauszufinden, diese Samples einzusetzen. Die Informationstheorie inspiriert sowohl die Sichtweise als auch die Werkzeuge der Mondelli Gruppe, was zur der Untersuchung der folgenden grundlegenden Fragen führt: Wie wenig Information braucht es, um ein Inferenzproblem zu lösen? Ist der Entwurf eines Algorithmus mit geringer Komplexität möglich? Was sind die Vor- und Nachteile der beteiligten Paramater (z.B. Dimension des Problems, Größe des Datensamples, Komplexität)?




Team


Laufende Projekte

Grenzen des und effiziente Algorithmen für Deep Learning | Nicht-konvexe Optimierung in hohen Dimensionen | Optimales Code-Design für kurze Blocklängen


Publikationen

Súkeník P, Mondelli M, Lampert C. Deep neural collapse is provably optimal for the deep unconstrained features model. 37th Annual Conference on Neural Information Processing Systems. NeurIPS: Neural Information Processing Systems, NeurIPS, . View

Bombari S, Kiyani S, Mondelli M. 2023. Beyond the universal law of robustness: Sharper laws for random features and neural tangent kernels. Proceedings of the 40th International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 202, 2738–2776. View

Shevchenko A, Kögler K, Hassani H, Mondelli M. 2023. Fundamental limits of two-layer autoencoders, and achieving them with gradient methods. Proceedings of the 40th International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 202, 31151–31209. View

Barbier J, Camilli F, Mondelli M, Sáenz M. 2023. Fundamental limits in structured principal component analysis and how to reach them. Proceedings of the National Academy of Sciences of the United States of America. 120(30), e2302028120. View

Esposito AR, Mondelli M. Concentration without independence via information measures. Proceedings of 2023 IEEE International Symposium on Information Theory. ISIT: IEEE International Symposium on Information Theory. View

Zu Allen Publikationen

ReX-Link: Marco Mondelli


Karriere

Seit 2019 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2019 Postdoc, Stanford University, Stanford, USA
2018 Research Fellow, Simons Institute for the Theory of Computing, Berkeley, USA
2016 PhD, EPFL, Lausanne, Schweiz


Ausgewählte Auszeichnungen

2019 Lopez-Loreta Prize
2018 Simons-Berkeley Research Fellowship
2018 EPFL Doctorate Award
2017 Early Postdoc Mobility Fellowship, Swiss National Science Foundation
2016 Best Paper Award, ACM Symposium on Theory of Computing (STOC)
2015 Best Student Paper Award, IEEE International Symposium on Information Theory (ISIT)
2015 Dan David Prize Scholarship


Zusätzliche Information

Download CV
Marco Mondellis Website



theme sidebar-arrow-up
Nach Oben