]> git.lizzy.rs Git - rust.git/blob - compiler/rustc_span/src/span_encoding.rs
Rollup merge of #88313 - jyn514:pre-push, r=Mark-Simulacrum
[rust.git] / compiler / rustc_span / src / span_encoding.rs
1 // Spans are encoded using 1-bit tag and 2 different encoding formats (one for each tag value).
2 // One format is used for keeping span data inline,
3 // another contains index into an out-of-line span interner.
4 // The encoding format for inline spans were obtained by optimizing over crates in rustc/libstd.
5 // See https://internals.rust-lang.org/t/rfc-compiler-refactoring-spans/1357/28
6
7 use crate::def_id::LocalDefId;
8 use crate::hygiene::SyntaxContext;
9 use crate::SPAN_TRACK;
10 use crate::{BytePos, SpanData};
11
12 use rustc_data_structures::fx::FxIndexSet;
13
14 /// A compressed span.
15 ///
16 /// Whereas [`SpanData`] is 12 bytes, which is a bit too big to stick everywhere, `Span`
17 /// is a form that only takes up 8 bytes, with less space for the length and
18 /// context. The vast majority (99.9%+) of `SpanData` instances will fit within
19 /// those 8 bytes; any `SpanData` whose fields don't fit into a `Span` are
20 /// stored in a separate interner table, and the `Span` will index into that
21 /// table. Interning is rare enough that the cost is low, but common enough
22 /// that the code is exercised regularly.
23 ///
24 /// An earlier version of this code used only 4 bytes for `Span`, but that was
25 /// slower because only 80--90% of spans could be stored inline (even less in
26 /// very large crates) and so the interner was used a lot more.
27 ///
28 /// Inline (compressed) format:
29 /// - `span.base_or_index == span_data.lo`
30 /// - `span.len_or_tag == len == span_data.hi - span_data.lo` (must be `<= MAX_LEN`)
31 /// - `span.ctxt == span_data.ctxt` (must be `<= MAX_CTXT`)
32 ///
33 /// Interned format:
34 /// - `span.base_or_index == index` (indexes into the interner table)
35 /// - `span.len_or_tag == LEN_TAG` (high bit set, all other bits are zero)
36 /// - `span.ctxt == 0`
37 ///
38 /// The inline form uses 0 for the tag value (rather than 1) so that we don't
39 /// need to mask out the tag bit when getting the length, and so that the
40 /// dummy span can be all zeroes.
41 ///
42 /// Notes about the choice of field sizes:
43 /// - `base` is 32 bits in both `Span` and `SpanData`, which means that `base`
44 ///   values never cause interning. The number of bits needed for `base`
45 ///   depends on the crate size. 32 bits allows up to 4 GiB of code in a crate.
46 /// - `len` is 15 bits in `Span` (a u16, minus 1 bit for the tag) and 32 bits
47 ///   in `SpanData`, which means that large `len` values will cause interning.
48 ///   The number of bits needed for `len` does not depend on the crate size.
49 ///   The most common numbers of bits for `len` are from 0 to 7, with a peak usually
50 ///   at 3 or 4, and then it drops off quickly from 8 onwards. 15 bits is enough
51 ///   for 99.99%+ of cases, but larger values (sometimes 20+ bits) might occur
52 ///   dozens of times in a typical crate.
53 /// - `ctxt` is 16 bits in `Span` and 32 bits in `SpanData`, which means that
54 ///   large `ctxt` values will cause interning. The number of bits needed for
55 ///   `ctxt` values depend partly on the crate size and partly on the form of
56 ///   the code. No crates in `rustc-perf` need more than 15 bits for `ctxt`,
57 ///   but larger crates might need more than 16 bits.
58 ///
59 /// In order to reliably use parented spans in incremental compilation,
60 /// the dependency to the parent definition's span. This is performed
61 /// using the callback `SPAN_TRACK` to access the query engine.
62 ///
63 #[derive(Clone, Copy, Eq, PartialEq, Hash)]
64 // FIXME(@lcnr): Enable this attribute once the bootstrap
65 // compiler knows of `rustc_pass_by_value`.
66 //
67 // Right now, this lint would only trigger when compiling the
68 // stage 2 compiler, which is fairly annoying as there are
69 // a lot of places using `&Span` right now. After the next bootstrap bump,
70 // the lint will already trigger when using stage 1, which is a lot less annoying.
71 //
72 // #[cfg_attr(not(bootstrap), rustc_pass_by_value)]
73 pub struct Span {
74     base_or_index: u32,
75     len_or_tag: u16,
76     ctxt_or_zero: u16,
77 }
78
79 const LEN_TAG: u16 = 0b1000_0000_0000_0000;
80 const MAX_LEN: u32 = 0b0111_1111_1111_1111;
81 const MAX_CTXT: u32 = 0b1111_1111_1111_1111;
82
83 /// Dummy span, both position and length are zero, syntax context is zero as well.
84 pub const DUMMY_SP: Span = Span { base_or_index: 0, len_or_tag: 0, ctxt_or_zero: 0 };
85
86 impl Span {
87     #[inline]
88     pub fn new(
89         mut lo: BytePos,
90         mut hi: BytePos,
91         ctxt: SyntaxContext,
92         parent: Option<LocalDefId>,
93     ) -> Self {
94         if lo > hi {
95             std::mem::swap(&mut lo, &mut hi);
96         }
97
98         let (base, len, ctxt2) = (lo.0, hi.0 - lo.0, ctxt.as_u32());
99
100         if len <= MAX_LEN && ctxt2 <= MAX_CTXT && parent.is_none() {
101             // Inline format.
102             Span { base_or_index: base, len_or_tag: len as u16, ctxt_or_zero: ctxt2 as u16 }
103         } else {
104             // Interned format.
105             let index =
106                 with_span_interner(|interner| interner.intern(&SpanData { lo, hi, ctxt, parent }));
107             Span { base_or_index: index, len_or_tag: LEN_TAG, ctxt_or_zero: 0 }
108         }
109     }
110
111     #[inline]
112     pub fn data(self) -> SpanData {
113         let data = self.data_untracked();
114         if let Some(parent) = data.parent {
115             (*SPAN_TRACK)(parent);
116         }
117         data
118     }
119
120     /// Internal function to translate between an encoded span and the expanded representation.
121     /// This function must not be used outside the incremental engine.
122     #[inline]
123     pub fn data_untracked(self) -> SpanData {
124         if self.len_or_tag != LEN_TAG {
125             // Inline format.
126             debug_assert!(self.len_or_tag as u32 <= MAX_LEN);
127             SpanData {
128                 lo: BytePos(self.base_or_index),
129                 hi: BytePos(self.base_or_index + self.len_or_tag as u32),
130                 ctxt: SyntaxContext::from_u32(self.ctxt_or_zero as u32),
131                 parent: None,
132             }
133         } else {
134             // Interned format.
135             debug_assert!(self.ctxt_or_zero == 0);
136             let index = self.base_or_index;
137             with_span_interner(|interner| interner.spans[index as usize])
138         }
139     }
140 }
141
142 #[derive(Default)]
143 pub struct SpanInterner {
144     spans: FxIndexSet<SpanData>,
145 }
146
147 impl SpanInterner {
148     fn intern(&mut self, span_data: &SpanData) -> u32 {
149         let (index, _) = self.spans.insert_full(*span_data);
150         index as u32
151     }
152 }
153
154 // If an interner exists, return it. Otherwise, prepare a fresh one.
155 #[inline]
156 fn with_span_interner<T, F: FnOnce(&mut SpanInterner) -> T>(f: F) -> T {
157     crate::with_session_globals(|session_globals| f(&mut *session_globals.span_interner.lock()))
158 }