Alistarh Group

Verteilte Algorithmen und Systeme

Verteilung war im letzten Jahrzehnt ein wesentlicher Trend der Informatik: Prozessorarchitekturen sind mehrkernig, während Großsysteme für maschinelles Lernen und Datenverarbeitung über mehrere Maschinen oder sogar Datenzentren verteilbar sind. Die Alistarh-Gruppe arbeitet an Algorithmen, die diese Entwicklung nutzen können, indem sie skalierbare Software entwickelt – diese verbessert die Performance, sobald mehr Rechenleistung verfügbar ist.


Diese fundamentale Veränderung zu verteiltem Rechnen bringt aufregende offene Fragen mit sich: Wie gestalten wir Algorithmen, die jedes letzte Stück Performance aus der derzeitigen Generation der Computer-Architektur nutzen können? Wie entwickeln wir zukünftige Architekturen, um skalierbarere Algorithmen zu unterstützen? Gibt es klare Abstraktionen, um Hochleistungs-Verteilung für Programmierer zugänglich zu machen? Die Forschung der Alistarh-Gruppe konzentriert sich auf die Beantwortung dieser Fragen. Insbesondere ist die Gruppe daran interessiert, effiziente und praktische Algorithmen für grundlegende Probleme der verteilten Datenverarbeitung zu entwickeln, die inhärenten Grenzen verteilter Systeme zu verstehen und neue Wege zur Überwindung dieser Grenzen zu entwickeln. Ein besonderer Fokus in den letzten Jahren war das verteilte maschinelle Lernen.

Group Leader


On this site:

Team


Laufende Projekte

Verteiltes Machine Learning | Gleichzeitige Datenstrukturen und Anwendungen | Molekulare Berechnung


Publikationen

Alistarh D-A, Aspnes J, Ellen F, Gelashvili R, Zhu L. 2020. Brief Announcement: Why Extension-Based Proofs Fail. Proceedings of the 39th Symposium on Principles of Distributed Computing. PODC: Principles of Distributed Computing 54–56. View

Gurel NM, Kara K, Stojanov A, Smith T, Lemmin T, Alistarh D-A, Puschel M, Zhang C. 2020. Compressive sensing using iterative hard thresholding with low precision data representation: Theory and applications. IEEE Transactions on Signal Processing. View

Alistarh D-A, Brown TA, Singhal N. 2020. Memory tagging: Minimalist synchronization for scalable concurrent data structures. Annual ACM Symposium on Parallelism in Algorithms and Architectures. SPAA: Symposium on Parallelism in Algorithms and Architectures 37–49. View

Czumaj A, Davies P, Parter M. 2020. Graph sparsification for derandomizing massively parallel computation with low space. Proceedings of the 32nd ACM Symposium on Parallelism in Algorithms and Architectures (SPAA 2020). SPAA: Symposium on Parallelism in Algorithms and Architectures 175–185. View

Czumaj A, Davies P, Parter M. 2020. Simple, deterministic, constant-round coloring in the congested clique. Proceedings of the 2020 ACM Symposium on Principles of Distributed Computing. PODC: Symposium on Principles of Distributed Computing 309–318. View

Zu Allen Publikationen

Karriere

seit 2017 Assistant Professor, IST Austria
2016 – 2017 “Ambizione Fellow”, Computer Science Department, ETH Zurich
2014 – 2016 Researcher, Microsoft Research, Cambridge, UK
2014 – 2016 Morgan Fellow, Downing College, University of Cambridge, UK
2012 – 2013 Postdoc, Massachusetts Institute of Technology, Cambridge, USA
2012 PhD, EPFL, Lausanne, Switzerland


Ausgewählte Auszeichnungen

2018 ERC Starting Grant
2015 Awarded Swiss National Foundation “Ambizione” Fellowship
2014 Elected Morgan Fellow at Downing College, University of Cambridge
2012 Postdoctoral Fellowship of the Swiss National Foundation
2011 Best Paper Award at the International Conference on Distributed Computing and Networking


Zusätzliche Informationen

Dan Alistarhs Website



Nach Oben