Învățarea automată în fizica particulelor

Învățarea automată în fizica particulelor

Experimentele de la Large Hadron Collider generează în jur de un milion de gigaocteți de date pe secundă. Chiar și după ce sunt filtrate și comprimate, datele acumulate într-o oră se compară cu volumul de date adunat de Facebook într-un întreg an. Din fericire, fizicienii nu trebuie să proceseze și să analizeze aceste date de unii singuri. Ei beneficiază de ajutorul unui software de “Machine learning” care învață să realizeze analize complexe autonom. “Spre deosebire de un algoritm standard de calculator pe care-l creăm pentru o analiză anume, algoritmii pe care îi utilizăm trebuie să fie concepuți pentru a ne ajuta să realizăm diverse analize, economisind astfel nenumărate ore de muncă”, afirmă fizicianul Alexander Radovic, care participă la experimentul NOvA. Radovic, împreună cu o echipă de cercetători, a descris aplicațiile actuale și perspectivele viitoare ale învățării automate în fizica particulelor într-o lucrare apărută în revista [Nature](https://www.nature.com/articles/s41586-018-0361-2).

### Căutarea în “Big Data”

Pentru a face față uriașului volum de date generate în experimentele moderne, precum cele de la LHC, cercetătorii utilizează ce se numește “triggere” (declanșatoare) hardware și software, care decid în timp real ce date să fie păstrate pentru analiză și ce date să fie eliminate. La LHCb, un experiment care ar putea lămuri de ce există mai multă materie decât antimaterie în Univers, algoritmii iau cel puțin 70% din decizii, afirmă Mike Williams de la MIT. “Machine learning are un rol crucial în aproape toate aspectele legate de datele experimentului, de la triggere la analiza datelor rămase”, afirmă Williams. Machine learning s-a dovedit extrem de valoroasă în analiza datelor. Detectorii uriași de la LHC, ATLAS și CMS, responsabili pentru descoperirea bosonului Higgs, au fiecare zeci de milioane de elemente de detecție ale căror semnale trebuie colectate și integrate.

“Aceste semnale formează un spațiu de date complex”, spune Michael Kagan de la “US Department of Energy’s SLAC National Accelerator Laboratory”, care lucrează la ATLAS și este co-autor al lucrării menționate anterior din revista Nature. “Trebuie să înțelegem relația dintre aceste semnale pentru a trasa concluzii – de exemplu, trebuie să știm dacă o anumită urmă detectată a fost generată de un electron, un foton sau altceva.”

De asemenea, NOvA beneficiază de avantajele inteligenței artificiale și machine learning-ului. Fermilab – care administrează experimentele NOvA – analizează modul în care neutrinii se transformă dintr-un tip în altul în timp ce străbat Pământul. Aceste oscilații neutrinice ar putea dezvălui existența unui nou tip de neutrino, pe care unele teorii îl prezic a fi o particulă a materiei întunecate. Detectoarele NOvA urmăresc particulele încărcate atunci când neutrinii interacționează cu materialul detectorului, iar algoritmii de machine learning le identifică.

### Large Hadron Collider

LHC este cel mai mare accelerator de particule din lume și cel care atinge cele mai ridicate energii. Colierul se află într-un tunel circular, cu o circumferință de 27 km, situat la o adâncime între 50 și 175 m sub pământ. Tunelul este alcătuit din două țevi inelare adiacente separate care se intersectează în patru puncte, fiecare țeavă conținând o conductă de protoni. Aceștia se mișcă în tunel în direcții opuse. Aproape 1232 dipoli magnetici mențin fluxurile pe căile lor circulare, iar 392 cuadripoli magnetici sunt folosiți pentru a ține fluxurile focalizate. În total, sunt instalați peste 1600 de magneți supraconductori, majoritatea având o greutate de peste 27 de tone.

O dată sau de două ori pe zi, în timp ce protonii sunt accelera…