]> git.lizzy.rs Git - rust.git/blob - src/machine.rs
Auto merge of #1886 - camelid:stage2, r=RalfJung
[rust.git] / src / machine.rs
1 //! Global machine state as well as implementation of the interpreter engine
2 //! `Machine` trait.
3
4 use std::borrow::Cow;
5 use std::cell::RefCell;
6 use std::fmt;
7 use std::num::NonZeroU64;
8 use std::time::Instant;
9
10 use log::trace;
11 use rand::rngs::StdRng;
12 use rand::SeedableRng;
13
14 use rustc_data_structures::fx::FxHashMap;
15 use rustc_middle::{
16     mir,
17     ty::{
18         self,
19         layout::{LayoutCx, LayoutError, LayoutOf, TyAndLayout},
20         Instance, TyCtxt,
21     },
22 };
23 use rustc_span::def_id::DefId;
24 use rustc_span::symbol::{sym, Symbol};
25 use rustc_target::abi::Size;
26 use rustc_target::spec::abi::Abi;
27
28 use crate::*;
29
30 // Some global facts about the emulated machine.
31 pub const PAGE_SIZE: u64 = 4 * 1024; // FIXME: adjust to target architecture
32 pub const STACK_ADDR: u64 = 32 * PAGE_SIZE; // not really about the "stack", but where we start assigning integer addresses to allocations
33 pub const STACK_SIZE: u64 = 16 * PAGE_SIZE; // whatever
34 pub const NUM_CPUS: u64 = 1;
35
36 /// Extra data stored with each stack frame
37 pub struct FrameData<'tcx> {
38     /// Extra data for Stacked Borrows.
39     pub call_id: stacked_borrows::CallId,
40
41     /// If this is Some(), then this is a special "catch unwind" frame (the frame of `try_fn`
42     /// called by `try`). When this frame is popped during unwinding a panic,
43     /// we stop unwinding, use the `CatchUnwindData` to handle catching.
44     pub catch_unwind: Option<CatchUnwindData<'tcx>>,
45
46     /// If `measureme` profiling is enabled, holds timing information
47     /// for the start of this frame. When we finish executing this frame,
48     /// we use this to register a completed event with `measureme`.
49     pub timing: Option<measureme::DetachedTiming>,
50 }
51
52 impl<'tcx> std::fmt::Debug for FrameData<'tcx> {
53     fn fmt(&self, f: &mut std::fmt::Formatter<'_>) -> std::fmt::Result {
54         // Omitting `timing`, it does not support `Debug`.
55         let FrameData { call_id, catch_unwind, timing: _ } = self;
56         f.debug_struct("FrameData")
57             .field("call_id", call_id)
58             .field("catch_unwind", catch_unwind)
59             .finish()
60     }
61 }
62
63 /// Extra memory kinds
64 #[derive(Debug, Copy, Clone, PartialEq, Eq)]
65 pub enum MiriMemoryKind {
66     /// `__rust_alloc` memory.
67     Rust,
68     /// `malloc` memory.
69     C,
70     /// Windows `HeapAlloc` memory.
71     WinHeap,
72     /// Memory for args, errno, and other parts of the machine-managed environment.
73     /// This memory may leak.
74     Machine,
75     /// Memory for env vars. Separate from `Machine` because we clean it up and leak-check it.
76     Env,
77     /// Globals copied from `tcx`.
78     /// This memory may leak.
79     Global,
80     /// Memory for extern statics.
81     /// This memory may leak.
82     ExternStatic,
83     /// Memory for thread-local statics.
84     /// This memory may leak.
85     Tls,
86 }
87
88 impl Into<MemoryKind<MiriMemoryKind>> for MiriMemoryKind {
89     #[inline(always)]
90     fn into(self) -> MemoryKind<MiriMemoryKind> {
91         MemoryKind::Machine(self)
92     }
93 }
94
95 impl MayLeak for MiriMemoryKind {
96     #[inline(always)]
97     fn may_leak(self) -> bool {
98         use self::MiriMemoryKind::*;
99         match self {
100             Rust | C | WinHeap | Env => false,
101             Machine | Global | ExternStatic | Tls => true,
102         }
103     }
104 }
105
106 impl fmt::Display for MiriMemoryKind {
107     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
108         use self::MiriMemoryKind::*;
109         match self {
110             Rust => write!(f, "Rust heap"),
111             C => write!(f, "C heap"),
112             WinHeap => write!(f, "Windows heap"),
113             Machine => write!(f, "machine-managed memory"),
114             Env => write!(f, "environment variable"),
115             Global => write!(f, "global (static or const)"),
116             ExternStatic => write!(f, "extern static"),
117             Tls => write!(f, "thread-local static"),
118         }
119     }
120 }
121
122 /// Pointer provenance (tag).
123 #[derive(Debug, Clone, Copy, PartialEq, Eq, Hash)]
124 pub struct Tag {
125     pub alloc_id: AllocId,
126     /// Stacked Borrows tag.
127     pub sb: SbTag,
128 }
129
130 impl Provenance for Tag {
131     /// We use absolute addresses in the `offset` of a `Pointer<Tag>`.
132     const OFFSET_IS_ADDR: bool = true;
133
134     /// We cannot err on partial overwrites, it happens too often in practice (due to unions).
135     const ERR_ON_PARTIAL_PTR_OVERWRITE: bool = false;
136
137     fn fmt(ptr: &Pointer<Self>, f: &mut fmt::Formatter<'_>) -> fmt::Result {
138         let (tag, addr) = ptr.into_parts(); // address is absolute
139         write!(f, "0x{:x}", addr.bytes())?;
140         // Forward `alternate` flag to `alloc_id` printing.
141         if f.alternate() {
142             write!(f, "[{:#?}]", tag.alloc_id)?;
143         } else {
144             write!(f, "[{:?}]", tag.alloc_id)?;
145         }
146         // Print Stacked Borrows tag.
147         write!(f, "{:?}", tag.sb)
148     }
149
150     fn get_alloc_id(self) -> AllocId {
151         self.alloc_id
152     }
153 }
154
155 /// Extra per-allocation data
156 #[derive(Debug, Clone)]
157 pub struct AllocExtra {
158     /// Stacked Borrows state is only added if it is enabled.
159     pub stacked_borrows: Option<stacked_borrows::AllocExtra>,
160     /// Data race detection via the use of a vector-clock,
161     ///  this is only added if it is enabled.
162     pub data_race: Option<data_race::AllocExtra>,
163 }
164
165 /// Extra global memory data
166 #[derive(Debug)]
167 pub struct MemoryExtra {
168     pub stacked_borrows: Option<stacked_borrows::MemoryExtra>,
169     pub data_race: Option<data_race::MemoryExtra>,
170     pub intptrcast: intptrcast::MemoryExtra,
171
172     /// Mapping extern static names to their base pointer.
173     extern_statics: FxHashMap<Symbol, Pointer<Tag>>,
174
175     /// The random number generator used for resolving non-determinism.
176     /// Needs to be queried by ptr_to_int, hence needs interior mutability.
177     pub(crate) rng: RefCell<StdRng>,
178
179     /// An allocation ID to report when it is being allocated
180     /// (helps for debugging memory leaks and use after free bugs).
181     tracked_alloc_id: Option<AllocId>,
182
183     /// Controls whether alignment of memory accesses is being checked.
184     pub(crate) check_alignment: AlignmentCheck,
185
186     /// Failure rate of compare_exchange_weak, between 0.0 and 1.0
187     pub(crate) cmpxchg_weak_failure_rate: f64,
188 }
189
190 impl MemoryExtra {
191     pub fn new(config: &MiriConfig) -> Self {
192         let rng = StdRng::seed_from_u64(config.seed.unwrap_or(0));
193         let stacked_borrows = if config.stacked_borrows {
194             Some(RefCell::new(stacked_borrows::GlobalState::new(
195                 config.tracked_pointer_tag,
196                 config.tracked_call_id,
197                 config.track_raw,
198             )))
199         } else {
200             None
201         };
202         let data_race =
203             if config.data_race_detector { Some(data_race::GlobalState::new()) } else { None };
204         MemoryExtra {
205             stacked_borrows,
206             data_race,
207             intptrcast: Default::default(),
208             extern_statics: FxHashMap::default(),
209             rng: RefCell::new(rng),
210             tracked_alloc_id: config.tracked_alloc_id,
211             check_alignment: config.check_alignment,
212             cmpxchg_weak_failure_rate: config.cmpxchg_weak_failure_rate,
213         }
214     }
215
216     fn add_extern_static<'tcx, 'mir>(
217         this: &mut MiriEvalContext<'mir, 'tcx>,
218         name: &str,
219         ptr: Pointer<Option<Tag>>,
220     ) {
221         let ptr = ptr.into_pointer_or_addr().unwrap();
222         this.memory.extra.extern_statics.try_insert(Symbol::intern(name), ptr).unwrap();
223     }
224
225     /// Sets up the "extern statics" for this machine.
226     pub fn init_extern_statics<'tcx, 'mir>(
227         this: &mut MiriEvalContext<'mir, 'tcx>,
228     ) -> InterpResult<'tcx> {
229         match this.tcx.sess.target.os.as_str() {
230             "linux" => {
231                 // "__cxa_thread_atexit_impl"
232                 // This should be all-zero, pointer-sized.
233                 let layout = this.machine.layouts.usize;
234                 let place = this.allocate(layout, MiriMemoryKind::ExternStatic.into())?;
235                 this.write_scalar(Scalar::from_machine_usize(0, this), &place.into())?;
236                 Self::add_extern_static(this, "__cxa_thread_atexit_impl", place.ptr);
237                 // "environ"
238                 Self::add_extern_static(
239                     this,
240                     "environ",
241                     this.machine.env_vars.environ.unwrap().ptr,
242                 );
243             }
244             "windows" => {
245                 // "_tls_used"
246                 // This is some obscure hack that is part of the Windows TLS story. It's a `u8`.
247                 let layout = this.machine.layouts.u8;
248                 let place = this.allocate(layout, MiriMemoryKind::ExternStatic.into())?;
249                 this.write_scalar(Scalar::from_u8(0), &place.into())?;
250                 Self::add_extern_static(this, "_tls_used", place.ptr);
251             }
252             _ => {} // No "extern statics" supported on this target
253         }
254         Ok(())
255     }
256 }
257
258 /// Precomputed layouts of primitive types
259 pub struct PrimitiveLayouts<'tcx> {
260     pub unit: TyAndLayout<'tcx>,
261     pub i8: TyAndLayout<'tcx>,
262     pub i32: TyAndLayout<'tcx>,
263     pub isize: TyAndLayout<'tcx>,
264     pub u8: TyAndLayout<'tcx>,
265     pub u32: TyAndLayout<'tcx>,
266     pub usize: TyAndLayout<'tcx>,
267 }
268
269 impl<'mir, 'tcx: 'mir> PrimitiveLayouts<'tcx> {
270     fn new(layout_cx: LayoutCx<'tcx, TyCtxt<'tcx>>) -> Result<Self, LayoutError<'tcx>> {
271         Ok(Self {
272             unit: layout_cx.layout_of(layout_cx.tcx.mk_unit())?,
273             i8: layout_cx.layout_of(layout_cx.tcx.types.i8)?,
274             i32: layout_cx.layout_of(layout_cx.tcx.types.i32)?,
275             isize: layout_cx.layout_of(layout_cx.tcx.types.isize)?,
276             u8: layout_cx.layout_of(layout_cx.tcx.types.u8)?,
277             u32: layout_cx.layout_of(layout_cx.tcx.types.u32)?,
278             usize: layout_cx.layout_of(layout_cx.tcx.types.usize)?,
279         })
280     }
281 }
282
283 /// The machine itself.
284 pub struct Evaluator<'mir, 'tcx> {
285     /// Environment variables set by `setenv`.
286     /// Miri does not expose env vars from the host to the emulated program.
287     pub(crate) env_vars: EnvVars<'tcx>,
288
289     /// Program arguments (`Option` because we can only initialize them after creating the ecx).
290     /// These are *pointers* to argc/argv because macOS.
291     /// We also need the full command line as one string because of Windows.
292     pub(crate) argc: Option<MemPlace<Tag>>,
293     pub(crate) argv: Option<MemPlace<Tag>>,
294     pub(crate) cmd_line: Option<MemPlace<Tag>>,
295
296     /// TLS state.
297     pub(crate) tls: TlsData<'tcx>,
298
299     /// What should Miri do when an op requires communicating with the host,
300     /// such as accessing host env vars, random number generation, and
301     /// file system access.
302     pub(crate) isolated_op: IsolatedOp,
303
304     /// Whether to enforce the validity invariant.
305     pub(crate) validate: bool,
306
307     /// Whether to enforce [ABI](Abi) of function calls.
308     pub(crate) enforce_abi: bool,
309
310     pub(crate) file_handler: shims::posix::FileHandler,
311     pub(crate) dir_handler: shims::posix::DirHandler,
312
313     /// The "time anchor" for this machine's monotone clock (for `Instant` simulation).
314     pub(crate) time_anchor: Instant,
315
316     /// The set of threads.
317     pub(crate) threads: ThreadManager<'mir, 'tcx>,
318
319     /// Precomputed `TyLayout`s for primitive data types that are commonly used inside Miri.
320     pub(crate) layouts: PrimitiveLayouts<'tcx>,
321
322     /// Allocations that are considered roots of static memory (that may leak).
323     pub(crate) static_roots: Vec<AllocId>,
324
325     /// The `measureme` profiler used to record timing information about
326     /// the emulated program.
327     profiler: Option<measureme::Profiler>,
328     /// Used with `profiler` to cache the `StringId`s for event names
329     /// uesd with `measureme`.
330     string_cache: FxHashMap<String, measureme::StringId>,
331
332     /// Cache of `Instance` exported under the given `Symbol` name.
333     /// `None` means no `Instance` exported under the given name is found.
334     pub(crate) exported_symbols_cache: FxHashMap<Symbol, Option<Instance<'tcx>>>,
335
336     /// Whether to raise a panic in the context of the evaluated process when unsupported
337     /// functionality is encountered. If `false`, an error is propagated in the Miri application context
338     /// instead (default behavior)
339     pub(crate) panic_on_unsupported: bool,
340 }
341
342 impl<'mir, 'tcx> Evaluator<'mir, 'tcx> {
343     pub(crate) fn new(config: &MiriConfig, layout_cx: LayoutCx<'tcx, TyCtxt<'tcx>>) -> Self {
344         let layouts =
345             PrimitiveLayouts::new(layout_cx).expect("Couldn't get layouts of primitive types");
346         let profiler = config.measureme_out.as_ref().map(|out| {
347             measureme::Profiler::new(out).expect("Couldn't create `measureme` profiler")
348         });
349         Evaluator {
350             // `env_vars` could be initialized properly here if `Memory` were available before
351             // calling this method.
352             env_vars: EnvVars::default(),
353             argc: None,
354             argv: None,
355             cmd_line: None,
356             tls: TlsData::default(),
357             isolated_op: config.isolated_op,
358             validate: config.validate,
359             enforce_abi: config.check_abi,
360             file_handler: Default::default(),
361             dir_handler: Default::default(),
362             time_anchor: Instant::now(),
363             layouts,
364             threads: ThreadManager::default(),
365             static_roots: Vec::new(),
366             profiler,
367             string_cache: Default::default(),
368             exported_symbols_cache: FxHashMap::default(),
369             panic_on_unsupported: config.panic_on_unsupported,
370         }
371     }
372
373     pub(crate) fn communicate(&self) -> bool {
374         self.isolated_op == IsolatedOp::Allow
375     }
376 }
377
378 /// A rustc InterpCx for Miri.
379 pub type MiriEvalContext<'mir, 'tcx> = InterpCx<'mir, 'tcx, Evaluator<'mir, 'tcx>>;
380
381 /// A little trait that's useful to be inherited by extension traits.
382 pub trait MiriEvalContextExt<'mir, 'tcx> {
383     fn eval_context_ref<'a>(&'a self) -> &'a MiriEvalContext<'mir, 'tcx>;
384     fn eval_context_mut<'a>(&'a mut self) -> &'a mut MiriEvalContext<'mir, 'tcx>;
385 }
386 impl<'mir, 'tcx> MiriEvalContextExt<'mir, 'tcx> for MiriEvalContext<'mir, 'tcx> {
387     #[inline(always)]
388     fn eval_context_ref(&self) -> &MiriEvalContext<'mir, 'tcx> {
389         self
390     }
391     #[inline(always)]
392     fn eval_context_mut(&mut self) -> &mut MiriEvalContext<'mir, 'tcx> {
393         self
394     }
395 }
396
397 /// Machine hook implementations.
398 impl<'mir, 'tcx> Machine<'mir, 'tcx> for Evaluator<'mir, 'tcx> {
399     type MemoryKind = MiriMemoryKind;
400
401     type FrameExtra = FrameData<'tcx>;
402     type MemoryExtra = MemoryExtra;
403     type AllocExtra = AllocExtra;
404     type PointerTag = Tag;
405     type ExtraFnVal = Dlsym;
406
407     type MemoryMap =
408         MonoHashMap<AllocId, (MemoryKind<MiriMemoryKind>, Allocation<Tag, Self::AllocExtra>)>;
409
410     const GLOBAL_KIND: Option<MiriMemoryKind> = Some(MiriMemoryKind::Global);
411
412     const PANIC_ON_ALLOC_FAIL: bool = false;
413
414     #[inline(always)]
415     fn enforce_alignment(memory_extra: &MemoryExtra) -> bool {
416         memory_extra.check_alignment != AlignmentCheck::None
417     }
418
419     #[inline(always)]
420     fn force_int_for_alignment_check(memory_extra: &Self::MemoryExtra) -> bool {
421         memory_extra.check_alignment == AlignmentCheck::Int
422     }
423
424     #[inline(always)]
425     fn enforce_validity(ecx: &InterpCx<'mir, 'tcx, Self>) -> bool {
426         ecx.machine.validate
427     }
428
429     #[inline(always)]
430     fn enforce_abi(ecx: &InterpCx<'mir, 'tcx, Self>) -> bool {
431         ecx.machine.enforce_abi
432     }
433
434     #[inline(always)]
435     fn find_mir_or_eval_fn(
436         ecx: &mut InterpCx<'mir, 'tcx, Self>,
437         instance: ty::Instance<'tcx>,
438         abi: Abi,
439         args: &[OpTy<'tcx, Tag>],
440         ret: Option<(&PlaceTy<'tcx, Tag>, mir::BasicBlock)>,
441         unwind: StackPopUnwind,
442     ) -> InterpResult<'tcx, Option<&'mir mir::Body<'tcx>>> {
443         ecx.find_mir_or_eval_fn(instance, abi, args, ret, unwind)
444     }
445
446     #[inline(always)]
447     fn call_extra_fn(
448         ecx: &mut InterpCx<'mir, 'tcx, Self>,
449         fn_val: Dlsym,
450         abi: Abi,
451         args: &[OpTy<'tcx, Tag>],
452         ret: Option<(&PlaceTy<'tcx, Tag>, mir::BasicBlock)>,
453         _unwind: StackPopUnwind,
454     ) -> InterpResult<'tcx> {
455         ecx.call_dlsym(fn_val, abi, args, ret)
456     }
457
458     #[inline(always)]
459     fn call_intrinsic(
460         ecx: &mut rustc_mir::interpret::InterpCx<'mir, 'tcx, Self>,
461         instance: ty::Instance<'tcx>,
462         args: &[OpTy<'tcx, Tag>],
463         ret: Option<(&PlaceTy<'tcx, Tag>, mir::BasicBlock)>,
464         unwind: StackPopUnwind,
465     ) -> InterpResult<'tcx> {
466         ecx.call_intrinsic(instance, args, ret, unwind)
467     }
468
469     #[inline(always)]
470     fn assert_panic(
471         ecx: &mut InterpCx<'mir, 'tcx, Self>,
472         msg: &mir::AssertMessage<'tcx>,
473         unwind: Option<mir::BasicBlock>,
474     ) -> InterpResult<'tcx> {
475         ecx.assert_panic(msg, unwind)
476     }
477
478     #[inline(always)]
479     fn abort(_ecx: &mut InterpCx<'mir, 'tcx, Self>, msg: String) -> InterpResult<'tcx, !> {
480         throw_machine_stop!(TerminationInfo::Abort(msg))
481     }
482
483     #[inline(always)]
484     fn binary_ptr_op(
485         ecx: &rustc_mir::interpret::InterpCx<'mir, 'tcx, Self>,
486         bin_op: mir::BinOp,
487         left: &ImmTy<'tcx, Tag>,
488         right: &ImmTy<'tcx, Tag>,
489     ) -> InterpResult<'tcx, (Scalar<Tag>, bool, ty::Ty<'tcx>)> {
490         ecx.binary_ptr_op(bin_op, left, right)
491     }
492
493     fn box_alloc(
494         ecx: &mut InterpCx<'mir, 'tcx, Self>,
495         dest: &PlaceTy<'tcx, Tag>,
496     ) -> InterpResult<'tcx> {
497         trace!("box_alloc for {:?}", dest.layout.ty);
498         let layout = ecx.layout_of(dest.layout.ty.builtin_deref(false).unwrap().ty)?;
499         // First argument: `size`.
500         // (`0` is allowed here -- this is expected to be handled by the lang item).
501         let size = Scalar::from_machine_usize(layout.size.bytes(), ecx);
502
503         // Second argument: `align`.
504         let align = Scalar::from_machine_usize(layout.align.abi.bytes(), ecx);
505
506         // Call the `exchange_malloc` lang item.
507         let malloc = ecx.tcx.lang_items().exchange_malloc_fn().unwrap();
508         let malloc = ty::Instance::mono(ecx.tcx.tcx, malloc);
509         ecx.call_function(
510             malloc,
511             Abi::Rust,
512             &[size.into(), align.into()],
513             Some(dest),
514             // Don't do anything when we are done. The `statement()` function will increment
515             // the old stack frame's stmt counter to the next statement, which means that when
516             // `exchange_malloc` returns, we go on evaluating exactly where we want to be.
517             StackPopCleanup::None { cleanup: true },
518         )?;
519         Ok(())
520     }
521
522     fn thread_local_static_base_pointer(
523         ecx: &mut InterpCx<'mir, 'tcx, Self>,
524         def_id: DefId,
525     ) -> InterpResult<'tcx, Pointer<Tag>> {
526         ecx.get_or_create_thread_local_alloc(def_id)
527     }
528
529     fn extern_static_base_pointer(
530         memory: &Memory<'mir, 'tcx, Self>,
531         def_id: DefId,
532     ) -> InterpResult<'tcx, Pointer<Tag>> {
533         let attrs = memory.tcx.get_attrs(def_id);
534         let link_name = match memory.tcx.sess.first_attr_value_str_by_name(&attrs, sym::link_name) {
535             Some(name) => name,
536             None => memory.tcx.item_name(def_id),
537         };
538         if let Some(&ptr) = memory.extra.extern_statics.get(&link_name) {
539             Ok(ptr)
540         } else {
541             throw_unsup_format!("`extern` static {:?} is not supported by Miri", def_id)
542         }
543     }
544
545     fn init_allocation_extra<'b>(
546         mem: &Memory<'mir, 'tcx, Self>,
547         id: AllocId,
548         alloc: Cow<'b, Allocation>,
549         kind: Option<MemoryKind<Self::MemoryKind>>,
550     ) -> Cow<'b, Allocation<Self::PointerTag, Self::AllocExtra>> {
551         if Some(id) == mem.extra.tracked_alloc_id {
552             register_diagnostic(NonHaltingDiagnostic::CreatedAlloc(id));
553         }
554
555         let kind = kind.expect("we set our STATIC_KIND so this cannot be None");
556         let alloc = alloc.into_owned();
557         let stacks = if let Some(stacked_borrows) = &mem.extra.stacked_borrows {
558             Some(Stacks::new_allocation(id, alloc.size(), stacked_borrows, kind))
559         } else {
560             None
561         };
562         let race_alloc = if let Some(data_race) = &mem.extra.data_race {
563             Some(data_race::AllocExtra::new_allocation(&data_race, alloc.size(), kind))
564         } else {
565             None
566         };
567         let alloc: Allocation<Tag, Self::AllocExtra> = alloc.convert_tag_add_extra(
568             &mem.tcx,
569             AllocExtra { stacked_borrows: stacks, data_race: race_alloc },
570             |ptr| Evaluator::tag_alloc_base_pointer(mem, ptr),
571         );
572         Cow::Owned(alloc)
573     }
574
575     fn tag_alloc_base_pointer(
576         mem: &Memory<'mir, 'tcx, Self>,
577         ptr: Pointer<AllocId>,
578     ) -> Pointer<Tag> {
579         let absolute_addr = intptrcast::GlobalState::rel_ptr_to_addr(&mem, ptr);
580         let sb_tag = if let Some(stacked_borrows) = &mem.extra.stacked_borrows {
581             stacked_borrows.borrow_mut().base_tag(ptr.provenance)
582         } else {
583             SbTag::Untagged
584         };
585         Pointer::new(Tag { alloc_id: ptr.provenance, sb: sb_tag }, Size::from_bytes(absolute_addr))
586     }
587
588     #[inline(always)]
589     fn ptr_from_addr(
590         mem: &Memory<'mir, 'tcx, Self>,
591         addr: u64,
592     ) -> Pointer<Option<Self::PointerTag>> {
593         intptrcast::GlobalState::ptr_from_addr(addr, mem)
594     }
595
596     /// Convert a pointer with provenance into an allocation-offset pair,
597     /// or a `None` with an absolute address if that conversion is not possible.
598     fn ptr_get_alloc(
599         mem: &Memory<'mir, 'tcx, Self>,
600         ptr: Pointer<Self::PointerTag>,
601     ) -> (AllocId, Size) {
602         let rel = intptrcast::GlobalState::abs_ptr_to_rel(mem, ptr);
603         (ptr.provenance.alloc_id, rel)
604     }
605
606     #[inline(always)]
607     fn memory_read(
608         memory_extra: &Self::MemoryExtra,
609         alloc_extra: &AllocExtra,
610         tag: Tag,
611         range: AllocRange,
612     ) -> InterpResult<'tcx> {
613         if let Some(data_race) = &alloc_extra.data_race {
614             data_race.read(tag.alloc_id, range, memory_extra.data_race.as_ref().unwrap())?;
615         }
616         if let Some(stacked_borrows) = &alloc_extra.stacked_borrows {
617             stacked_borrows.memory_read(
618                 tag.alloc_id,
619                 tag.sb,
620                 range,
621                 memory_extra.stacked_borrows.as_ref().unwrap(),
622             )
623         } else {
624             Ok(())
625         }
626     }
627
628     #[inline(always)]
629     fn memory_written(
630         memory_extra: &mut Self::MemoryExtra,
631         alloc_extra: &mut AllocExtra,
632         tag: Tag,
633         range: AllocRange,
634     ) -> InterpResult<'tcx> {
635         if let Some(data_race) = &mut alloc_extra.data_race {
636             data_race.write(tag.alloc_id, range, memory_extra.data_race.as_mut().unwrap())?;
637         }
638         if let Some(stacked_borrows) = &mut alloc_extra.stacked_borrows {
639             stacked_borrows.memory_written(
640                 tag.alloc_id,
641                 tag.sb,
642                 range,
643                 memory_extra.stacked_borrows.as_mut().unwrap(),
644             )
645         } else {
646             Ok(())
647         }
648     }
649
650     #[inline(always)]
651     fn memory_deallocated(
652         memory_extra: &mut Self::MemoryExtra,
653         alloc_extra: &mut AllocExtra,
654         tag: Tag,
655         range: AllocRange,
656     ) -> InterpResult<'tcx> {
657         if Some(tag.alloc_id) == memory_extra.tracked_alloc_id {
658             register_diagnostic(NonHaltingDiagnostic::FreedAlloc(tag.alloc_id));
659         }
660         if let Some(data_race) = &mut alloc_extra.data_race {
661             data_race.deallocate(tag.alloc_id, range, memory_extra.data_race.as_mut().unwrap())?;
662         }
663         if let Some(stacked_borrows) = &mut alloc_extra.stacked_borrows {
664             stacked_borrows.memory_deallocated(
665                 tag.alloc_id,
666                 tag.sb,
667                 range,
668                 memory_extra.stacked_borrows.as_mut().unwrap(),
669             )
670         } else {
671             Ok(())
672         }
673     }
674
675     #[inline(always)]
676     fn retag(
677         ecx: &mut InterpCx<'mir, 'tcx, Self>,
678         kind: mir::RetagKind,
679         place: &PlaceTy<'tcx, Tag>,
680     ) -> InterpResult<'tcx> {
681         if ecx.memory.extra.stacked_borrows.is_some() { ecx.retag(kind, place) } else { Ok(()) }
682     }
683
684     #[inline(always)]
685     fn init_frame_extra(
686         ecx: &mut InterpCx<'mir, 'tcx, Self>,
687         frame: Frame<'mir, 'tcx, Tag>,
688     ) -> InterpResult<'tcx, Frame<'mir, 'tcx, Tag, FrameData<'tcx>>> {
689         // Start recording our event before doing anything else
690         let timing = if let Some(profiler) = ecx.machine.profiler.as_ref() {
691             let fn_name = frame.instance.to_string();
692             let entry = ecx.machine.string_cache.entry(fn_name.clone());
693             let name = entry.or_insert_with(|| profiler.alloc_string(&*fn_name));
694
695             Some(profiler.start_recording_interval_event_detached(
696                 *name,
697                 measureme::EventId::from_label(*name),
698                 ecx.get_active_thread().to_u32(),
699             ))
700         } else {
701             None
702         };
703
704         let stacked_borrows = ecx.memory.extra.stacked_borrows.as_ref();
705         let call_id = stacked_borrows.map_or(NonZeroU64::new(1).unwrap(), |stacked_borrows| {
706             stacked_borrows.borrow_mut().new_call()
707         });
708
709         let extra = FrameData { call_id, catch_unwind: None, timing };
710         Ok(frame.with_extra(extra))
711     }
712
713     fn stack<'a>(
714         ecx: &'a InterpCx<'mir, 'tcx, Self>,
715     ) -> &'a [Frame<'mir, 'tcx, Self::PointerTag, Self::FrameExtra>] {
716         ecx.active_thread_stack()
717     }
718
719     fn stack_mut<'a>(
720         ecx: &'a mut InterpCx<'mir, 'tcx, Self>,
721     ) -> &'a mut Vec<Frame<'mir, 'tcx, Self::PointerTag, Self::FrameExtra>> {
722         ecx.active_thread_stack_mut()
723     }
724
725     #[inline(always)]
726     fn after_stack_push(ecx: &mut InterpCx<'mir, 'tcx, Self>) -> InterpResult<'tcx> {
727         if ecx.memory.extra.stacked_borrows.is_some() { ecx.retag_return_place() } else { Ok(()) }
728     }
729
730     #[inline(always)]
731     fn after_stack_pop(
732         ecx: &mut InterpCx<'mir, 'tcx, Self>,
733         mut frame: Frame<'mir, 'tcx, Tag, FrameData<'tcx>>,
734         unwinding: bool,
735     ) -> InterpResult<'tcx, StackPopJump> {
736         let timing = frame.extra.timing.take();
737         let res = ecx.handle_stack_pop(frame.extra, unwinding);
738         if let Some(profiler) = ecx.machine.profiler.as_ref() {
739             profiler.finish_recording_interval_event(timing.unwrap());
740         }
741         res
742     }
743 }