]> git.lizzy.rs Git - rust.git/blob - compiler/rustc_span/src/span_encoding.rs
Rollup merge of #104300 - tbu-:pr_path_parent_caveats, r=Mark-Simulacrum
[rust.git] / compiler / rustc_span / src / span_encoding.rs
1 // Spans are encoded using 1-bit tag and 2 different encoding formats (one for each tag value).
2 // One format is used for keeping span data inline,
3 // another contains index into an out-of-line span interner.
4 // The encoding format for inline spans were obtained by optimizing over crates in rustc/libstd.
5 // See https://internals.rust-lang.org/t/rfc-compiler-refactoring-spans/1357/28
6
7 use crate::def_id::LocalDefId;
8 use crate::hygiene::SyntaxContext;
9 use crate::SPAN_TRACK;
10 use crate::{BytePos, SpanData};
11
12 use rustc_data_structures::fx::FxIndexSet;
13
14 /// A compressed span.
15 ///
16 /// Whereas [`SpanData`] is 12 bytes, which is a bit too big to stick everywhere, `Span`
17 /// is a form that only takes up 8 bytes, with less space for the length and
18 /// context. The vast majority (99.9%+) of `SpanData` instances will fit within
19 /// those 8 bytes; any `SpanData` whose fields don't fit into a `Span` are
20 /// stored in a separate interner table, and the `Span` will index into that
21 /// table. Interning is rare enough that the cost is low, but common enough
22 /// that the code is exercised regularly.
23 ///
24 /// An earlier version of this code used only 4 bytes for `Span`, but that was
25 /// slower because only 80--90% of spans could be stored inline (even less in
26 /// very large crates) and so the interner was used a lot more.
27 ///
28 /// Inline (compressed) format:
29 /// - `span.base_or_index == span_data.lo`
30 /// - `span.len_or_tag == len == span_data.hi - span_data.lo` (must be `<= MAX_LEN`)
31 /// - `span.ctxt_or_tag == span_data.ctxt` (must be `<= MAX_CTXT`)
32 ///
33 /// Interned format with inline `SyntaxContext`:
34 /// - `span.base_or_index == index` (indexes into the interner table)
35 /// - `span.len_or_tag == LEN_TAG` (high bit set, all other bits are zero)
36 /// - `span.ctxt_or_tag == span_data.ctxt` (must be `<= MAX_CTXT`)
37 ///
38 /// Interned format:
39 /// - `span.base_or_index == index` (indexes into the interner table)
40 /// - `span.len_or_tag == LEN_TAG` (high bit set, all other bits are zero)
41 /// - `span.ctxt_or_tag == CTXT_TAG`
42 ///
43 /// The inline form uses 0 for the tag value (rather than 1) so that we don't
44 /// need to mask out the tag bit when getting the length, and so that the
45 /// dummy span can be all zeroes.
46 ///
47 /// Notes about the choice of field sizes:
48 /// - `base` is 32 bits in both `Span` and `SpanData`, which means that `base`
49 ///   values never cause interning. The number of bits needed for `base`
50 ///   depends on the crate size. 32 bits allows up to 4 GiB of code in a crate.
51 /// - `len` is 15 bits in `Span` (a u16, minus 1 bit for the tag) and 32 bits
52 ///   in `SpanData`, which means that large `len` values will cause interning.
53 ///   The number of bits needed for `len` does not depend on the crate size.
54 ///   The most common numbers of bits for `len` are from 0 to 7, with a peak usually
55 ///   at 3 or 4, and then it drops off quickly from 8 onwards. 15 bits is enough
56 ///   for 99.99%+ of cases, but larger values (sometimes 20+ bits) might occur
57 ///   dozens of times in a typical crate.
58 /// - `ctxt_or_tag` is 16 bits in `Span` and 32 bits in `SpanData`, which means that
59 ///   large `ctxt` values will cause interning. The number of bits needed for
60 ///   `ctxt` values depend partly on the crate size and partly on the form of
61 ///   the code. No crates in `rustc-perf` need more than 15 bits for `ctxt_or_tag`,
62 ///   but larger crates might need more than 16 bits.
63 ///
64 /// In order to reliably use parented spans in incremental compilation,
65 /// the dependency to the parent definition's span. This is performed
66 /// using the callback `SPAN_TRACK` to access the query engine.
67 ///
68 #[derive(Clone, Copy, Eq, PartialEq, Hash)]
69 #[rustc_pass_by_value]
70 pub struct Span {
71     base_or_index: u32,
72     len_or_tag: u16,
73     ctxt_or_tag: u16,
74 }
75
76 const LEN_TAG: u16 = 0b1000_0000_0000_0000;
77 const MAX_LEN: u32 = 0b0111_1111_1111_1111;
78 const CTXT_TAG: u32 = 0b1111_1111_1111_1111;
79 const MAX_CTXT: u32 = CTXT_TAG - 1;
80
81 /// Dummy span, both position and length are zero, syntax context is zero as well.
82 pub const DUMMY_SP: Span = Span { base_or_index: 0, len_or_tag: 0, ctxt_or_tag: 0 };
83
84 impl Span {
85     #[inline]
86     pub fn new(
87         mut lo: BytePos,
88         mut hi: BytePos,
89         ctxt: SyntaxContext,
90         parent: Option<LocalDefId>,
91     ) -> Self {
92         if lo > hi {
93             std::mem::swap(&mut lo, &mut hi);
94         }
95
96         let (base, len, ctxt2) = (lo.0, hi.0 - lo.0, ctxt.as_u32());
97
98         if len <= MAX_LEN && ctxt2 <= MAX_CTXT && parent.is_none() {
99             // Inline format.
100             Span { base_or_index: base, len_or_tag: len as u16, ctxt_or_tag: ctxt2 as u16 }
101         } else {
102             // Interned format.
103             let index =
104                 with_span_interner(|interner| interner.intern(&SpanData { lo, hi, ctxt, parent }));
105             let ctxt_or_tag = if ctxt2 <= MAX_CTXT { ctxt2 } else { CTXT_TAG } as u16;
106             Span { base_or_index: index, len_or_tag: LEN_TAG, ctxt_or_tag }
107         }
108     }
109
110     #[inline]
111     pub fn data(self) -> SpanData {
112         let data = self.data_untracked();
113         if let Some(parent) = data.parent {
114             (*SPAN_TRACK)(parent);
115         }
116         data
117     }
118
119     /// Internal function to translate between an encoded span and the expanded representation.
120     /// This function must not be used outside the incremental engine.
121     #[inline]
122     pub fn data_untracked(self) -> SpanData {
123         if self.len_or_tag != LEN_TAG {
124             // Inline format.
125             debug_assert!(self.len_or_tag as u32 <= MAX_LEN);
126             SpanData {
127                 lo: BytePos(self.base_or_index),
128                 hi: BytePos(self.base_or_index + self.len_or_tag as u32),
129                 ctxt: SyntaxContext::from_u32(self.ctxt_or_tag as u32),
130                 parent: None,
131             }
132         } else {
133             // Interned format.
134             let index = self.base_or_index;
135             with_span_interner(|interner| interner.spans[index as usize])
136         }
137     }
138
139     /// This function is used as a fast path when decoding the full `SpanData` is not necessary.
140     #[inline]
141     pub fn ctxt(self) -> SyntaxContext {
142         let ctxt_or_tag = self.ctxt_or_tag as u32;
143         if ctxt_or_tag <= MAX_CTXT {
144             // Inline format or interned format with inline ctxt.
145             SyntaxContext::from_u32(ctxt_or_tag)
146         } else {
147             // Interned format.
148             let index = self.base_or_index;
149             with_span_interner(|interner| interner.spans[index as usize].ctxt)
150         }
151     }
152 }
153
154 #[derive(Default)]
155 pub struct SpanInterner {
156     spans: FxIndexSet<SpanData>,
157 }
158
159 impl SpanInterner {
160     fn intern(&mut self, span_data: &SpanData) -> u32 {
161         let (index, _) = self.spans.insert_full(*span_data);
162         index as u32
163     }
164 }
165
166 // If an interner exists, return it. Otherwise, prepare a fresh one.
167 #[inline]
168 fn with_span_interner<T, F: FnOnce(&mut SpanInterner) -> T>(f: F) -> T {
169     crate::with_session_globals(|session_globals| f(&mut *session_globals.span_interner.lock()))
170 }