]> git.lizzy.rs Git - rust.git/blob - src/librustc_data_structures/profiling.rs
Run 'x.py fmt'.
[rust.git] / src / librustc_data_structures / profiling.rs
1 //! # Rust Compiler Self-Profiling
2 //!
3 //! This module implements the basic framework for the compiler's self-
4 //! profiling support. It provides the `SelfProfiler` type which enables
5 //! recording "events". An event is something that starts and ends at a given
6 //! point in time and has an ID and a kind attached to it. This allows for
7 //! tracing the compiler's activity.
8 //!
9 //! Internally this module uses the custom tailored [measureme][mm] crate for
10 //! efficiently recording events to disk in a compact format that can be
11 //! post-processed and analyzed by the suite of tools in the `measureme`
12 //! project. The highest priority for the tracing framework is on incurring as
13 //! little overhead as possible.
14 //!
15 //!
16 //! ## Event Overview
17 //!
18 //! Events have a few properties:
19 //!
20 //! - The `event_kind` designates the broad category of an event (e.g. does it
21 //!   correspond to the execution of a query provider or to loading something
22 //!   from the incr. comp. on-disk cache, etc).
23 //! - The `event_id` designates the query invocation or function call it
24 //!   corresponds to, possibly including the query key or function arguments.
25 //! - Each event stores the ID of the thread it was recorded on.
26 //! - The timestamp stores beginning and end of the event, or the single point
27 //!   in time it occurred at for "instant" events.
28 //!
29 //!
30 //! ## Event Filtering
31 //!
32 //! Event generation can be filtered by event kind. Recording all possible
33 //! events generates a lot of data, much of which is not needed for most kinds
34 //! of analysis. So, in order to keep overhead as low as possible for a given
35 //! use case, the `SelfProfiler` will only record the kinds of events that
36 //! pass the filter specified as a command line argument to the compiler.
37 //!
38 //!
39 //! ## `event_id` Assignment
40 //!
41 //! As far as `measureme` is concerned, `event_id`s are just strings. However,
42 //! it would incur too much overhead to generate and persist each `event_id`
43 //! string at the point where the event is recorded. In order to make this more
44 //! efficient `measureme` has two features:
45 //!
46 //! - Strings can share their content, so that re-occurring parts don't have to
47 //!   be copied over and over again. One allocates a string in `measureme` and
48 //!   gets back a `StringId`. This `StringId` is then used to refer to that
49 //!   string. `measureme` strings are actually DAGs of string components so that
50 //!   arbitrary sharing of substrings can be done efficiently. This is useful
51 //!   because `event_id`s contain lots of redundant text like query names or
52 //!   def-path components.
53 //!
54 //! - `StringId`s can be "virtual" which means that the client picks a numeric
55 //!   ID according to some application-specific scheme and can later make that
56 //!   ID be mapped to an actual string. This is used to cheaply generate
57 //!   `event_id`s while the events actually occur, causing little timing
58 //!   distortion, and then later map those `StringId`s, in bulk, to actual
59 //!   `event_id` strings. This way the largest part of the tracing overhead is
60 //!   localized to one contiguous chunk of time.
61 //!
62 //! How are these `event_id`s generated in the compiler? For things that occur
63 //! infrequently (e.g. "generic activities"), we just allocate the string the
64 //! first time it is used and then keep the `StringId` in a hash table. This
65 //! is implemented in `SelfProfiler::get_or_alloc_cached_string()`.
66 //!
67 //! For queries it gets more interesting: First we need a unique numeric ID for
68 //! each query invocation (the `QueryInvocationId`). This ID is used as the
69 //! virtual `StringId` we use as `event_id` for a given event. This ID has to
70 //! be available both when the query is executed and later, together with the
71 //! query key, when we allocate the actual `event_id` strings in bulk.
72 //!
73 //! We could make the compiler generate and keep track of such an ID for each
74 //! query invocation but luckily we already have something that fits all the
75 //! the requirements: the query's `DepNodeIndex`. So we use the numeric value
76 //! of the `DepNodeIndex` as `event_id` when recording the event and then,
77 //! just before the query context is dropped, we walk the entire query cache
78 //! (which stores the `DepNodeIndex` along with the query key for each
79 //! invocation) and allocate the corresponding strings together with a mapping
80 //! for `DepNodeIndex as StringId`.
81 //!
82 //! [mm]: https://github.com/rust-lang/measureme/
83
84 use crate::fx::FxHashMap;
85
86 use std::error::Error;
87 use std::fs;
88 use std::path::Path;
89 use std::process;
90 use std::sync::Arc;
91 use std::thread::ThreadId;
92 use std::time::{Duration, Instant};
93 use std::u32;
94
95 use measureme::{EventId, EventIdBuilder, SerializableString, StringId};
96 use parking_lot::RwLock;
97
98 /// MmapSerializatioSink is faster on macOS and Linux
99 /// but FileSerializationSink is faster on Windows
100 #[cfg(not(windows))]
101 type SerializationSink = measureme::MmapSerializationSink;
102 #[cfg(windows)]
103 type SerializationSink = measureme::FileSerializationSink;
104
105 type Profiler = measureme::Profiler<SerializationSink>;
106
107 #[derive(Clone, Copy, Debug, PartialEq, Eq, Ord, PartialOrd)]
108 pub enum ProfileCategory {
109     Parsing,
110     Expansion,
111     TypeChecking,
112     BorrowChecking,
113     Codegen,
114     Linking,
115     Other,
116 }
117
118 bitflags::bitflags! {
119     struct EventFilter: u32 {
120         const GENERIC_ACTIVITIES = 1 << 0;
121         const QUERY_PROVIDERS    = 1 << 1;
122         const QUERY_CACHE_HITS   = 1 << 2;
123         const QUERY_BLOCKED      = 1 << 3;
124         const INCR_CACHE_LOADS   = 1 << 4;
125
126         const QUERY_KEYS         = 1 << 5;
127
128         const DEFAULT = Self::GENERIC_ACTIVITIES.bits |
129                         Self::QUERY_PROVIDERS.bits |
130                         Self::QUERY_BLOCKED.bits |
131                         Self::INCR_CACHE_LOADS.bits;
132
133         // empty() and none() aren't const-fns unfortunately
134         const NONE = 0;
135         const ALL  = !Self::NONE.bits;
136     }
137 }
138
139 const EVENT_FILTERS_BY_NAME: &[(&str, EventFilter)] = &[
140     ("none", EventFilter::NONE),
141     ("all", EventFilter::ALL),
142     ("generic-activity", EventFilter::GENERIC_ACTIVITIES),
143     ("query-provider", EventFilter::QUERY_PROVIDERS),
144     ("query-cache-hit", EventFilter::QUERY_CACHE_HITS),
145     ("query-blocked", EventFilter::QUERY_BLOCKED),
146     ("incr-cache-load", EventFilter::INCR_CACHE_LOADS),
147     ("query-keys", EventFilter::QUERY_KEYS),
148 ];
149
150 fn thread_id_to_u32(tid: ThreadId) -> u32 {
151     unsafe { std::mem::transmute::<ThreadId, u64>(tid) as u32 }
152 }
153
154 /// Something that uniquely identifies a query invocation.
155 pub struct QueryInvocationId(pub u32);
156
157 /// A reference to the SelfProfiler. It can be cloned and sent across thread
158 /// boundaries at will.
159 #[derive(Clone)]
160 pub struct SelfProfilerRef {
161     // This field is `None` if self-profiling is disabled for the current
162     // compilation session.
163     profiler: Option<Arc<SelfProfiler>>,
164
165     // We store the filter mask directly in the reference because that doesn't
166     // cost anything and allows for filtering with checking if the profiler is
167     // actually enabled.
168     event_filter_mask: EventFilter,
169
170     // Print verbose generic activities to stdout
171     print_verbose_generic_activities: bool,
172
173     // Print extra verbose generic activities to stdout
174     print_extra_verbose_generic_activities: bool,
175 }
176
177 impl SelfProfilerRef {
178     pub fn new(
179         profiler: Option<Arc<SelfProfiler>>,
180         print_verbose_generic_activities: bool,
181         print_extra_verbose_generic_activities: bool,
182     ) -> SelfProfilerRef {
183         // If there is no SelfProfiler then the filter mask is set to NONE,
184         // ensuring that nothing ever tries to actually access it.
185         let event_filter_mask =
186             profiler.as_ref().map(|p| p.event_filter_mask).unwrap_or(EventFilter::NONE);
187
188         SelfProfilerRef {
189             profiler,
190             event_filter_mask,
191             print_verbose_generic_activities,
192             print_extra_verbose_generic_activities,
193         }
194     }
195
196     // This shim makes sure that calls only get executed if the filter mask
197     // lets them pass. It also contains some trickery to make sure that
198     // code is optimized for non-profiling compilation sessions, i.e. anything
199     // past the filter check is never inlined so it doesn't clutter the fast
200     // path.
201     #[inline(always)]
202     fn exec<F>(&self, event_filter: EventFilter, f: F) -> TimingGuard<'_>
203     where
204         F: for<'a> FnOnce(&'a SelfProfiler) -> TimingGuard<'a>,
205     {
206         #[inline(never)]
207         fn cold_call<F>(profiler_ref: &SelfProfilerRef, f: F) -> TimingGuard<'_>
208         where
209             F: for<'a> FnOnce(&'a SelfProfiler) -> TimingGuard<'a>,
210         {
211             let profiler = profiler_ref.profiler.as_ref().unwrap();
212             f(&**profiler)
213         }
214
215         if unlikely!(self.event_filter_mask.contains(event_filter)) {
216             cold_call(self, f)
217         } else {
218             TimingGuard::none()
219         }
220     }
221
222     /// Start profiling a verbose generic activity. Profiling continues until the
223     /// VerboseTimingGuard returned from this call is dropped. In addition to recording
224     /// a measureme event, "verbose" generic activities also print a timing entry to
225     /// stdout if the compiler is invoked with -Ztime or -Ztime-passes.
226     #[inline(always)]
227     pub fn verbose_generic_activity<'a>(&'a self, event_id: &'a str) -> VerboseTimingGuard<'a> {
228         VerboseTimingGuard::start(
229             event_id,
230             self.print_verbose_generic_activities,
231             self.generic_activity(event_id),
232         )
233     }
234
235     /// Start profiling a extra verbose generic activity. Profiling continues until the
236     /// VerboseTimingGuard returned from this call is dropped. In addition to recording
237     /// a measureme event, "extra verbose" generic activities also print a timing entry to
238     /// stdout if the compiler is invoked with -Ztime-passes.
239     #[inline(always)]
240     pub fn extra_verbose_generic_activity<'a>(
241         &'a self,
242         event_id: &'a str,
243     ) -> VerboseTimingGuard<'a> {
244         // FIXME: This does not yet emit a measureme event
245         // because callers encode arguments into `event_id`.
246         VerboseTimingGuard::start(
247             event_id,
248             self.print_extra_verbose_generic_activities,
249             TimingGuard::none(),
250         )
251     }
252
253     /// Start profiling a generic activity. Profiling continues until the
254     /// TimingGuard returned from this call is dropped.
255     #[inline(always)]
256     pub fn generic_activity(&self, event_id: &'static str) -> TimingGuard<'_> {
257         self.exec(EventFilter::GENERIC_ACTIVITIES, |profiler| {
258             let event_id = profiler.get_or_alloc_cached_string(event_id);
259             let event_id = EventId::from_label(event_id);
260             TimingGuard::start(profiler, profiler.generic_activity_event_kind, event_id)
261         })
262     }
263
264     /// Start profiling a query provider. Profiling continues until the
265     /// TimingGuard returned from this call is dropped.
266     #[inline(always)]
267     pub fn query_provider(&self) -> TimingGuard<'_> {
268         self.exec(EventFilter::QUERY_PROVIDERS, |profiler| {
269             TimingGuard::start(profiler, profiler.query_event_kind, EventId::INVALID)
270         })
271     }
272
273     /// Record a query in-memory cache hit.
274     #[inline(always)]
275     pub fn query_cache_hit(&self, query_invocation_id: QueryInvocationId) {
276         self.instant_query_event(
277             |profiler| profiler.query_cache_hit_event_kind,
278             query_invocation_id,
279             EventFilter::QUERY_CACHE_HITS,
280         );
281     }
282
283     /// Start profiling a query being blocked on a concurrent execution.
284     /// Profiling continues until the TimingGuard returned from this call is
285     /// dropped.
286     #[inline(always)]
287     pub fn query_blocked(&self) -> TimingGuard<'_> {
288         self.exec(EventFilter::QUERY_BLOCKED, |profiler| {
289             TimingGuard::start(profiler, profiler.query_blocked_event_kind, EventId::INVALID)
290         })
291     }
292
293     /// Start profiling how long it takes to load a query result from the
294     /// incremental compilation on-disk cache. Profiling continues until the
295     /// TimingGuard returned from this call is dropped.
296     #[inline(always)]
297     pub fn incr_cache_loading(&self) -> TimingGuard<'_> {
298         self.exec(EventFilter::INCR_CACHE_LOADS, |profiler| {
299             TimingGuard::start(
300                 profiler,
301                 profiler.incremental_load_result_event_kind,
302                 EventId::INVALID,
303             )
304         })
305     }
306
307     #[inline(always)]
308     fn instant_query_event(
309         &self,
310         event_kind: fn(&SelfProfiler) -> StringId,
311         query_invocation_id: QueryInvocationId,
312         event_filter: EventFilter,
313     ) {
314         drop(self.exec(event_filter, |profiler| {
315             let event_id = StringId::new_virtual(query_invocation_id.0);
316             let thread_id = thread_id_to_u32(std::thread::current().id());
317
318             profiler.profiler.record_instant_event(
319                 event_kind(profiler),
320                 EventId::from_virtual(event_id),
321                 thread_id,
322             );
323
324             TimingGuard::none()
325         }));
326     }
327
328     pub fn with_profiler(&self, f: impl FnOnce(&SelfProfiler)) {
329         if let Some(profiler) = &self.profiler {
330             f(&profiler)
331         }
332     }
333
334     #[inline]
335     pub fn enabled(&self) -> bool {
336         self.profiler.is_some()
337     }
338 }
339
340 pub struct SelfProfiler {
341     profiler: Profiler,
342     event_filter_mask: EventFilter,
343
344     string_cache: RwLock<FxHashMap<&'static str, StringId>>,
345
346     query_event_kind: StringId,
347     generic_activity_event_kind: StringId,
348     incremental_load_result_event_kind: StringId,
349     query_blocked_event_kind: StringId,
350     query_cache_hit_event_kind: StringId,
351 }
352
353 impl SelfProfiler {
354     pub fn new(
355         output_directory: &Path,
356         crate_name: Option<&str>,
357         event_filters: &Option<Vec<String>>,
358     ) -> Result<SelfProfiler, Box<dyn Error>> {
359         fs::create_dir_all(output_directory)?;
360
361         let crate_name = crate_name.unwrap_or("unknown-crate");
362         let filename = format!("{}-{}.rustc_profile", crate_name, process::id());
363         let path = output_directory.join(&filename);
364         let profiler = Profiler::new(&path)?;
365
366         let query_event_kind = profiler.alloc_string("Query");
367         let generic_activity_event_kind = profiler.alloc_string("GenericActivity");
368         let incremental_load_result_event_kind = profiler.alloc_string("IncrementalLoadResult");
369         let query_blocked_event_kind = profiler.alloc_string("QueryBlocked");
370         let query_cache_hit_event_kind = profiler.alloc_string("QueryCacheHit");
371
372         let mut event_filter_mask = EventFilter::empty();
373
374         if let Some(ref event_filters) = *event_filters {
375             let mut unknown_events = vec![];
376             for item in event_filters {
377                 if let Some(&(_, mask)) =
378                     EVENT_FILTERS_BY_NAME.iter().find(|&(name, _)| name == item)
379                 {
380                     event_filter_mask |= mask;
381                 } else {
382                     unknown_events.push(item.clone());
383                 }
384             }
385
386             // Warn about any unknown event names
387             if unknown_events.len() > 0 {
388                 unknown_events.sort();
389                 unknown_events.dedup();
390
391                 warn!(
392                     "Unknown self-profiler events specified: {}. Available options are: {}.",
393                     unknown_events.join(", "),
394                     EVENT_FILTERS_BY_NAME
395                         .iter()
396                         .map(|&(name, _)| name.to_string())
397                         .collect::<Vec<_>>()
398                         .join(", ")
399                 );
400             }
401         } else {
402             event_filter_mask = EventFilter::DEFAULT;
403         }
404
405         Ok(SelfProfiler {
406             profiler,
407             event_filter_mask,
408             string_cache: RwLock::new(FxHashMap::default()),
409             query_event_kind,
410             generic_activity_event_kind,
411             incremental_load_result_event_kind,
412             query_blocked_event_kind,
413             query_cache_hit_event_kind,
414         })
415     }
416
417     /// Allocates a new string in the profiling data. Does not do any caching
418     /// or deduplication.
419     pub fn alloc_string<STR: SerializableString + ?Sized>(&self, s: &STR) -> StringId {
420         self.profiler.alloc_string(s)
421     }
422
423     /// Gets a `StringId` for the given string. This method makes sure that
424     /// any strings going through it will only be allocated once in the
425     /// profiling data.
426     pub fn get_or_alloc_cached_string(&self, s: &'static str) -> StringId {
427         // Only acquire a read-lock first since we assume that the string is
428         // already present in the common case.
429         {
430             let string_cache = self.string_cache.read();
431
432             if let Some(&id) = string_cache.get(s) {
433                 return id;
434             }
435         }
436
437         let mut string_cache = self.string_cache.write();
438         // Check if the string has already been added in the small time window
439         // between dropping the read lock and acquiring the write lock.
440         *string_cache.entry(s).or_insert_with(|| self.profiler.alloc_string(s))
441     }
442
443     pub fn map_query_invocation_id_to_string(&self, from: QueryInvocationId, to: StringId) {
444         let from = StringId::new_virtual(from.0);
445         self.profiler.map_virtual_to_concrete_string(from, to);
446     }
447
448     pub fn bulk_map_query_invocation_id_to_single_string<I>(&self, from: I, to: StringId)
449     where
450         I: Iterator<Item = QueryInvocationId> + ExactSizeIterator,
451     {
452         let from = from.map(|qid| StringId::new_virtual(qid.0));
453         self.profiler.bulk_map_virtual_to_single_concrete_string(from, to);
454     }
455
456     pub fn query_key_recording_enabled(&self) -> bool {
457         self.event_filter_mask.contains(EventFilter::QUERY_KEYS)
458     }
459
460     pub fn event_id_builder(&self) -> EventIdBuilder<'_, SerializationSink> {
461         EventIdBuilder::new(&self.profiler)
462     }
463 }
464
465 #[must_use]
466 pub struct TimingGuard<'a>(Option<measureme::TimingGuard<'a, SerializationSink>>);
467
468 impl<'a> TimingGuard<'a> {
469     #[inline]
470     pub fn start(
471         profiler: &'a SelfProfiler,
472         event_kind: StringId,
473         event_id: EventId,
474     ) -> TimingGuard<'a> {
475         let thread_id = thread_id_to_u32(std::thread::current().id());
476         let raw_profiler = &profiler.profiler;
477         let timing_guard =
478             raw_profiler.start_recording_interval_event(event_kind, event_id, thread_id);
479         TimingGuard(Some(timing_guard))
480     }
481
482     #[inline]
483     pub fn finish_with_query_invocation_id(self, query_invocation_id: QueryInvocationId) {
484         if let Some(guard) = self.0 {
485             let event_id = StringId::new_virtual(query_invocation_id.0);
486             let event_id = EventId::from_virtual(event_id);
487             guard.finish_with_override_event_id(event_id);
488         }
489     }
490
491     #[inline]
492     pub fn none() -> TimingGuard<'a> {
493         TimingGuard(None)
494     }
495 }
496
497 #[must_use]
498 pub struct VerboseTimingGuard<'a> {
499     event_id: &'a str,
500     start: Option<Instant>,
501     _guard: TimingGuard<'a>,
502 }
503
504 impl<'a> VerboseTimingGuard<'a> {
505     pub fn start(event_id: &'a str, verbose: bool, _guard: TimingGuard<'a>) -> Self {
506         VerboseTimingGuard {
507             event_id,
508             _guard,
509             start: if unlikely!(verbose) { Some(Instant::now()) } else { None },
510         }
511     }
512
513     #[inline(always)]
514     pub fn run<R>(self, f: impl FnOnce() -> R) -> R {
515         let _timer = self;
516         f()
517     }
518 }
519
520 impl Drop for VerboseTimingGuard<'_> {
521     fn drop(&mut self) {
522         self.start.map(|start| print_time_passes_entry(true, self.event_id, start.elapsed()));
523     }
524 }
525
526 pub fn print_time_passes_entry(do_it: bool, what: &str, dur: Duration) {
527     if !do_it {
528         return;
529     }
530
531     let mem_string = match get_resident() {
532         Some(n) => {
533             let mb = n as f64 / 1_000_000.0;
534             format!("; rss: {}MB", mb.round() as usize)
535         }
536         None => String::new(),
537     };
538     println!("time: {}{}\t{}", duration_to_secs_str(dur), mem_string, what);
539 }
540
541 // Hack up our own formatting for the duration to make it easier for scripts
542 // to parse (always use the same number of decimal places and the same unit).
543 pub fn duration_to_secs_str(dur: std::time::Duration) -> String {
544     const NANOS_PER_SEC: f64 = 1_000_000_000.0;
545     let secs = dur.as_secs() as f64 + dur.subsec_nanos() as f64 / NANOS_PER_SEC;
546
547     format!("{:.3}", secs)
548 }
549
550 // Memory reporting
551 #[cfg(unix)]
552 fn get_resident() -> Option<usize> {
553     let field = 1;
554     let contents = fs::read("/proc/self/statm").ok()?;
555     let contents = String::from_utf8(contents).ok()?;
556     let s = contents.split_whitespace().nth(field)?;
557     let npages = s.parse::<usize>().ok()?;
558     Some(npages * 4096)
559 }
560
561 #[cfg(windows)]
562 fn get_resident() -> Option<usize> {
563     type BOOL = i32;
564     type DWORD = u32;
565     type HANDLE = *mut u8;
566     use libc::size_t;
567     #[repr(C)]
568     #[allow(non_snake_case)]
569     struct PROCESS_MEMORY_COUNTERS {
570         cb: DWORD,
571         PageFaultCount: DWORD,
572         PeakWorkingSetSize: size_t,
573         WorkingSetSize: size_t,
574         QuotaPeakPagedPoolUsage: size_t,
575         QuotaPagedPoolUsage: size_t,
576         QuotaPeakNonPagedPoolUsage: size_t,
577         QuotaNonPagedPoolUsage: size_t,
578         PagefileUsage: size_t,
579         PeakPagefileUsage: size_t,
580     }
581     #[allow(non_camel_case_types)]
582     type PPROCESS_MEMORY_COUNTERS = *mut PROCESS_MEMORY_COUNTERS;
583     #[link(name = "psapi")]
584     extern "system" {
585         fn GetCurrentProcess() -> HANDLE;
586         fn GetProcessMemoryInfo(
587             Process: HANDLE,
588             ppsmemCounters: PPROCESS_MEMORY_COUNTERS,
589             cb: DWORD,
590         ) -> BOOL;
591     }
592     let mut pmc: PROCESS_MEMORY_COUNTERS = unsafe { mem::zeroed() };
593     pmc.cb = mem::size_of_val(&pmc) as DWORD;
594     match unsafe { GetProcessMemoryInfo(GetCurrentProcess(), &mut pmc, pmc.cb) } {
595         0 => None,
596         _ => Some(pmc.WorkingSetSize as usize),
597     }
598 }