A track reconstructing low latency trigger processor for high-energy physics [Elektronische Ressource] / Jan de Cuveland

-

English
175 Pages
Read an excerpt
Gain access to the library to view online
Learn more

Description

Inaugural-DissertationzurErlangung der DoktorwürdederNaturwissenschaftlich-Mathematischen GesamtfakultätderRuprecht-Karls-UniversitätHeidelbergvorgelegt von Diplom-PhysikerJan de Cuvelandaus HamburgTag der mündlichenPrüfung 17. September 2009A Track Reconstructing Low-latencyTrigger Processor for High-energy PhysicsJan de CuvelandGutachter: Prof. Dr. Volker LindenstruthProf. Dr. Ulrich BrüningA track reconstructing low-latency trigger processor for high-energy physicsThe detection and analysis of the large number of particles emerging from high-energycollisions between atomic nuclei is a major challenge in experimental heavy-ion physics.Efficient trigger systems help to focus the analysis on relevant events. A primary objectiveof the Transition Radiation Detector of the ALICE experiment at the LHC is to triggeron high-momentum electrons. In this thesis, a trigger processor is presented that employsmassive parallelism to perform the required online event reconstruction within 2s to con-tribute to the Level-1 trigger decision. Its three-stage hierarchical architecture comprises109 nodes based on FPGA technology. Ninety processing nodes receive data from thedetector front-end at an aggregate net bandwidth of 2.16 Tbit/s via 1080 optical links.Using specifically developed components and interconnections, the system combines highbandwidth with minimum latency.

Subjects

Informations

Published by
Published 01 January 2009
Reads 16
Language English
Document size 8 MB
Report a problem

Inaugural-Dissertation
zur
Erlangung der Doktorwürde
der
Naturwissenschaftlich-Mathematischen Gesamtfakultät
der
Ruprecht-Karls-Universität
Heidelberg
vorgelegt von Diplom-Physiker
Jan de Cuveland
aus Hamburg
Tag der mündlichen
Prüfung 17. September 2009A Track Reconstructing Low-latency
Trigger Processor for High-energy Physics
Jan de Cuveland
Gutachter: Prof. Dr. Volker Lindenstruth
Prof. Dr. Ulrich BrüningA track reconstructing low-latency trigger processor for high-energy physics
The detection and analysis of the large number of particles emerging from high-energy
collisions between atomic nuclei is a major challenge in experimental heavy-ion physics.
Efficient trigger systems help to focus the analysis on relevant events. A primary objective
of the Transition Radiation Detector of the ALICE experiment at the LHC is to trigger
on high-momentum electrons. In this thesis, a trigger processor is presented that employs
massive parallelism to perform the required online event reconstruction within 2s to con-
tribute to the Level-1 trigger decision. Its three-stage hierarchical architecture comprises
109 nodes based on FPGA technology. Ninety processing nodes receive data from the
detector front-end at an aggregate net bandwidth of 2.16 Tbit/s via 1080 optical links.
Using specifically developed components and interconnections, the system combines high
bandwidth with minimum latency. The employed tracking algorithm three-dimensionally
reassembles the track segments found in the detector’s drift chambers based on explicit
value comparisons, calculates the momentum of the originating particles from the course
of the reconstructed tracks, and finally leads to a trigger decision. The architecture is
capable of processing up to 20 000 track segments in less than 2s with high detection
efficiency and reconstruction precision for high-momentum particles. As a result, this the-
sis shows how a trigger processor performing complex online track reconstruction within
tight real-time requirements can be realized. The presented hardware has been built and
is in continuous data taking operation in the ALICE experiment.
Ein Triggerprozessor zur Online-Spurrekonstruktion in der
Hochenergiephysik
Eine große Herausforderung der experimentellen Schwerionenphysik ist der Nachweis und
die Auswertung der großen Anzahl an Teilchen, die bei hochenergetischen Stößen zwischen
Atomkernen entstehen. Leistungsfähige Triggersysteme helfen dabei, die Auswertung auf
relevante Ereignisse zu konzentrieren. Ein Hauptziel des Übergangsstrahlungsdetektors im
ALICE-Experiments am LHC ist es, als Trigger auf Elektronen mit hohem Transversalim-
pulszureagieren.IndieserArbeitwirdeinTriggerprozessorvorgestellt,derdienotwendige
Online-Spurrekonstruktion durch massives Parallelisieren innerhalb von 2s durchführt,
um zur Level-1-Triggerentscheidung beizutragen. Seine dreistufige hierarchische Architek-
tur umfasst 109 auf FPGA-Technik basierender Knoten. Über 1080 optische Verbindungen
empfangen 90 Verarbeitungsknoten die Daten aus dem Detektor-Front-End mit einer ge-
samten Nettodatenrate von 2,16 Tbit/s. Mit Hilfe speziell entwickelter Baugruppen und
Verbindungen kombiniert das System hohe Bandbreite mit minimaler Latenz. Der einge-
setzte Trackingalgorithmus setzt die in den Driftkammern des Detektors nachgewiesenen
Teilchenspursegmente aufgrund expliziter Wertvergleiche dreidimensional zusammen, er-
mitteltausdemVerlaufdersorekonstruiertenSpurendenImpulsdererzeugendenTeilchen
und führt schließlich zur Triggerentscheidung. Die Architektur kann in weniger als 2s
bis zu 20 000 Spursegmente verarbeiten und erreicht eine hohe Nachweiseffizienz und Re-
konstruktionsgenauigkeit für Teilchen mit hohem Transversalimpuls. Die Ergebnisse dieser
Arbeit zeigen, wie ein Triggerprozessor, der aufwändige Online-Spurrekonstruktion inner-
halb enger Echtzeitanforderungen ausführt, verwirklicht werden kann. Die dargestellte
Hardware wurde real aufgebaut und befindet sich im Einsatz im ALICE-Experiment.
5Contents
1 Introduction 17
2 The Experiment 23
2.1 The Large Hadron Collider (LHC) . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 The ALICE Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 The Detectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.2 The Trigger System . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 The Transition Radiation Detector (TRD) . . . . . . . . . . . . . . . . . . . 29
2.4 The TRD Trigger System . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Layout of Trigger System and Detector Readout Chain . . . . . . . 34
2.4.2 Timing of the TRD Trigger Computation . . . . . . . . . . . . . . . 36
3 GTU Hardware Architecture 39
3.1 Structure and Conceptual System Design . . . . . . . . . . . . . . . . . . . 39
3.1.1 Selecting Processing Node Technology . . . . . . . . . . . . . . . . . 39
3.1.2 Optimizing the System Structure . . . . . . . . . . . . . . . . . . . . 40
3.2 The Track Matching Unit (TMU) . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 The Supermodule Unit (SMU) . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4 The XMU PCB Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.1 Signal Integrity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 The XMU Backplane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6 The TGU Bac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7 The Trigger Generation Unit (TGU) and the CTP Interface . . . . . . . . . 62
3.8 System Integration and Operating Environment . . . . . . . . . . . . . . . . 63
3.8.1 Fault Tolerance Strategy . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.8.2 Ionizing Radiation Tolerance . . . . . . . . . . . . . . . . . . . . . . 66
3.8.3 Magnetic Field Tolerance . . . . . . . . . . . . . . . . . . . . . . . . 66
4 System Monitoring and Control 69
4.1 Low-level System Configuration . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 System Health Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 High-level Configuration and Control . . . . . . . . . . . . . . . . . . . . . . 74
4.3.1 The Node Control Processors . . . . . . . . . . . . . . . . . . . . . . 75
4.3.2 The GTUcom Node Control Application . . . . . . . . . . . . . . . . 76
4.4 The Detector Control System (DCS) . . . . . . . . . . . . . . . . . . . . . . 77
4.4.1 GTU Monitoring and Control Software . . . . . . . . . . . . . . . . 77
4.5 A High-speed Linux-based Control Network . . . . . . . . . . . . . . . . . . 80
7Contents
5 Event Buffering 83
5.1 TRD Raw Data Readout Timing and Requirements . . . . . . . . . . . . . 83
5.1.1 Event Sizes and Absolute Maximum Readout Rates . . . . . . . . . 84
5.1.2 Simulation of TRD Readout Timing and Multievent Buffering . . . 88
5.2 Event Buffering Implementation . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.1 High-bandwidth Multievent Buffering . . . . . . . . . . . . . . . . . 95
5.2.2 Handling Readout Requests . . . . . . . . . . . . . . . . . . . . . . . 97
6 Front-end Data Preprocessing 101
6.1 Contents of the Transmitted Data Words . . . . . . . . . . . . . . . . . . . 101
6.2 Computations in the Detector Front-End . . . . . . . . . . . . . . . . . . . 104
6.2.1 Lorentz Angle Correction . . . . . . . . . . . . . . . . . . . . . . . . 104
6.2.2 Tilted Pads . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2.3 Local Cut on the Transverse Momentum . . . . . . . . . . . . . . . . 107
7 Online Track Recognition 111
7.1 Overview of the GTU Trigger Computations . . . . . . . . . . . . . . . . . . 112
7.1.1 Tracking Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.1.2 Architecture Outline . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.2 Computations for Each Track Segment . . . . . . . . . . . . . . . . . . . . . 116
7.2.1 Projecting the Y Coordinate . . . . . . . . . . . . . . . . . . . . . . 117
7.2.2 Computing the Deflection Angle . . . . . . . . . . . . . . . . . . . . 118
7.2.3 Precomputing Reconstruction Parameters . . . . . . . . . . . . . . . 118
7.2.4 Architecture of an Input Unit . . . . . . . . . . . . . . . . . . . . . . 119
7.3 Matching by Selecting: The Z-Channels . . . . . . . . . . . . . . . . . . . . 119
7.3.1 Architecture of a Z-Channel Unit . . . . . . . . . . . . . . . . . . . . 121
7.4 Finding Tracks in Streams of Track Segments . . . . . . . . . . . . . . . . . 122
7.4.1 Comparing Track Segments . . . . . . . . . . . . . . . . . . . . . . . 123
7.4.2 Incrementing the Positions in the Data Streams . . . . . . . . . . . . 125
7.4.3 Architecture of a Track Finder . . . . . . . . . . . . . . . . . . . . . 125
7.5 Removing Duplicate Tracks . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8 Transverse Momentum Reconstruction and Trigger Decision 127
8.1 Fitting a Straight Line to the Track Segments . . . . . . . . . . . . . . . . . 127
8.1.1 Intersections of Straight Line and Circular Path . . . . . . . . . . . 130
8.2 Computation of the Track Radius . . . . . . . . . . . . . . . . . . . . . . . . 131
8.2.1 Optimizing the Computation for Online Processing . . . . . . . . . . 132
8.3 Transverse Momentum Reconstruction Architecture . . . . . . . . . . . . . 134
8.4 Trigger Decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9 Performance Analysis 137
9.1 Front-End Tracking Performance . . . . . . . . . . . . . . . . . . . . . . . . 139
9.2 GTU Tracking Performance . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
9.2.1 Resolution of the Reconstructed Transverse Momentum . . . . . . . 141
9.2.2 Tracking Efficiency . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8Contents
9.3 GTU Timing Performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
9.3.1 TMU Trigger Processing Time . . . . . . . . . . . . . . . . . . . . . 145
9.3.2 GTU System Trigger Processing Time . . . . . . . . . . . . . . . . . 148
10 Summary and Outlook 151
Appendix A The GTU Setup at CERN 155
Appendix B Technical Aspects of the GTU Implementation 159
B.1 Hardware Description in VHDL . . . . . . . . . . . . . . . . . . . . . . . . . 159
B.2 FPGA Synthesis Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
B.3 Detector Simulation Environment . . . . . . . . . . . . . . . . . . . . . . . . 162
List of Acronyms 163
Bibliography 169
9