| Vážení kolegovia,
 pozývame Vás na prednášku bývalého študenta odboru EFM:
 
 Jakub Konečný (University of Edinburgh):
 
 Semi-Stochastic Gradient Descent and Massively Distributed Optimization,
 
 ktorá sa uskutoční v stredu 21.10.2015 o 13.00  v posluchárni C na FMFI UK.
 
 
 Na záver seminára Jakub porozpráva pár  slov o Edinburghu a o tamojšom PhD
 štúdiu - a  rád odpovie na otázky.
 
 
 Abstrakt prednášky:
 V tomto talku uvediem koncept Empirical Risk Minimization, ktorý motivuje štruktúru mnohých problémov existujúcich v Machine Learningu, t.j. minimalizovať funkciu, ktorú vieme reprezentovať ako priemer veľkého množstva (n) iných funkcií. Predstavím nový algoritmus, S2GD (Semi-Stochastic Gradient Descent), ktorý v každej z niekoľkých epôch spočíta gradient celej funkcie, a veľký počet stochastických gradientov. Celková práca, ktorú algoritmus potrebuje na vrátenie ε-presného riešenia je ekvivalentná spočítaniu celého gradientu O((n/κ)log(1/ε))-krát, kde κ je condition number.
 V duhej časti budem rozprávať o distribuovanom prostredí, v ktorom žiaden počítač nemá kapacitu na to, aby pracoval s celou funkciou osamote. V takom prostredí je často komunikácia medzi počítačmi, typicky v rámci datacentra, časovo náročnejšia ako samotné výpočty. Predstavím projekt mojej letnej stáže v Google, Massively Distributed Optimization, ktorý poukazuje na praktickú potrebu vytvorenia nových algoritmov, ktoré budú flexibilné a výpočtovo použiteľné v inom prostredí ako v datacentrách, napríklad na mobilných zariadeniach používateľov. Zároveň poukážem na prirodzené rozšírenie S2GD do distribuovaného prostredia, ktorý ponúka takúto flexibilitu.
 
 Tešíme sa na Vašu účasť,
 
 organizátori
 
 
 |