]> git.lizzy.rs Git - rust.git/blob - src/machine.rs
make miri a better RUSTC by default inside cargo-miri
[rust.git] / src / machine.rs
1 //! Global machine state as well as implementation of the interpreter engine
2 //! `Machine` trait.
3
4 use std::borrow::Cow;
5 use std::cell::RefCell;
6 use std::collections::HashSet;
7 use std::fmt;
8 use std::time::Instant;
9
10 use rand::rngs::StdRng;
11 use rand::SeedableRng;
12
13 use rustc_ast::ast::Mutability;
14 use rustc_data_structures::fx::FxHashMap;
15 #[allow(unused)]
16 use rustc_data_structures::static_assert_size;
17 use rustc_middle::{
18     mir,
19     ty::{
20         self,
21         layout::{LayoutCx, LayoutError, LayoutOf, TyAndLayout},
22         Instance, TyCtxt, TypeAndMut,
23     },
24 };
25 use rustc_span::def_id::{CrateNum, DefId};
26 use rustc_span::Symbol;
27 use rustc_target::abi::Size;
28 use rustc_target::spec::abi::Abi;
29
30 use crate::{
31     concurrency::{data_race, weak_memory},
32     shims::unix::FileHandler,
33     *,
34 };
35
36 // Some global facts about the emulated machine.
37 pub const PAGE_SIZE: u64 = 4 * 1024; // FIXME: adjust to target architecture
38 pub const STACK_ADDR: u64 = 32 * PAGE_SIZE; // not really about the "stack", but where we start assigning integer addresses to allocations
39 pub const STACK_SIZE: u64 = 16 * PAGE_SIZE; // whatever
40 pub const NUM_CPUS: u64 = 1;
41
42 /// Extra data stored with each stack frame
43 pub struct FrameData<'tcx> {
44     /// Extra data for Stacked Borrows.
45     pub stacked_borrows: Option<stacked_borrows::FrameExtra>,
46
47     /// If this is Some(), then this is a special "catch unwind" frame (the frame of `try_fn`
48     /// called by `try`). When this frame is popped during unwinding a panic,
49     /// we stop unwinding, use the `CatchUnwindData` to handle catching.
50     pub catch_unwind: Option<CatchUnwindData<'tcx>>,
51
52     /// If `measureme` profiling is enabled, holds timing information
53     /// for the start of this frame. When we finish executing this frame,
54     /// we use this to register a completed event with `measureme`.
55     pub timing: Option<measureme::DetachedTiming>,
56 }
57
58 impl<'tcx> std::fmt::Debug for FrameData<'tcx> {
59     fn fmt(&self, f: &mut std::fmt::Formatter<'_>) -> std::fmt::Result {
60         // Omitting `timing`, it does not support `Debug`.
61         let FrameData { stacked_borrows, catch_unwind, timing: _ } = self;
62         f.debug_struct("FrameData")
63             .field("stacked_borrows", stacked_borrows)
64             .field("catch_unwind", catch_unwind)
65             .finish()
66     }
67 }
68
69 /// Extra memory kinds
70 #[derive(Debug, Copy, Clone, PartialEq, Eq)]
71 pub enum MiriMemoryKind {
72     /// `__rust_alloc` memory.
73     Rust,
74     /// `malloc` memory.
75     C,
76     /// Windows `HeapAlloc` memory.
77     WinHeap,
78     /// Memory for args, errno, and other parts of the machine-managed environment.
79     /// This memory may leak.
80     Machine,
81     /// Memory allocated by the runtime (e.g. env vars). Separate from `Machine`
82     /// because we clean it up and leak-check it.
83     Runtime,
84     /// Globals copied from `tcx`.
85     /// This memory may leak.
86     Global,
87     /// Memory for extern statics.
88     /// This memory may leak.
89     ExternStatic,
90     /// Memory for thread-local statics.
91     /// This memory may leak.
92     Tls,
93 }
94
95 impl From<MiriMemoryKind> for MemoryKind<MiriMemoryKind> {
96     #[inline(always)]
97     fn from(kind: MiriMemoryKind) -> MemoryKind<MiriMemoryKind> {
98         MemoryKind::Machine(kind)
99     }
100 }
101
102 impl MayLeak for MiriMemoryKind {
103     #[inline(always)]
104     fn may_leak(self) -> bool {
105         use self::MiriMemoryKind::*;
106         match self {
107             Rust | C | WinHeap | Runtime => false,
108             Machine | Global | ExternStatic | Tls => true,
109         }
110     }
111 }
112
113 impl fmt::Display for MiriMemoryKind {
114     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
115         use self::MiriMemoryKind::*;
116         match self {
117             Rust => write!(f, "Rust heap"),
118             C => write!(f, "C heap"),
119             WinHeap => write!(f, "Windows heap"),
120             Machine => write!(f, "machine-managed memory"),
121             Runtime => write!(f, "language runtime memory"),
122             Global => write!(f, "global (static or const)"),
123             ExternStatic => write!(f, "extern static"),
124             Tls => write!(f, "thread-local static"),
125         }
126     }
127 }
128
129 /// Pointer provenance.
130 #[derive(Debug, Clone, Copy, PartialEq, Eq, Hash)]
131 pub enum Provenance {
132     Concrete {
133         alloc_id: AllocId,
134         /// Stacked Borrows tag.
135         sb: SbTag,
136     },
137     Wildcard,
138 }
139
140 /// The "extra" information a pointer has over a regular AllocId.
141 #[derive(Copy, Clone)]
142 pub enum ProvenanceExtra {
143     Concrete(SbTag),
144     Wildcard,
145 }
146
147 #[cfg(all(target_arch = "x86_64", target_pointer_width = "64"))]
148 static_assert_size!(Pointer<Provenance>, 24);
149 // FIXME: this would with in 24bytes but layout optimizations are not smart enough
150 // #[cfg(all(target_arch = "x86_64", target_pointer_width = "64"))]
151 //static_assert_size!(Pointer<Option<Provenance>>, 24);
152 #[cfg(all(target_arch = "x86_64", target_pointer_width = "64"))]
153 static_assert_size!(ScalarMaybeUninit<Provenance>, 32);
154
155 impl interpret::Provenance for Provenance {
156     /// We use absolute addresses in the `offset` of a `Pointer<Provenance>`.
157     const OFFSET_IS_ADDR: bool = true;
158
159     /// We cannot err on partial overwrites, it happens too often in practice (due to unions).
160     const ERR_ON_PARTIAL_PTR_OVERWRITE: bool = false;
161
162     fn fmt(ptr: &Pointer<Self>, f: &mut fmt::Formatter<'_>) -> fmt::Result {
163         let (prov, addr) = ptr.into_parts(); // address is absolute
164         write!(f, "{:#x}", addr.bytes())?;
165
166         match prov {
167             Provenance::Concrete { alloc_id, sb } => {
168                 // Forward `alternate` flag to `alloc_id` printing.
169                 if f.alternate() {
170                     write!(f, "[{:#?}]", alloc_id)?;
171                 } else {
172                     write!(f, "[{:?}]", alloc_id)?;
173                 }
174                 // Print Stacked Borrows tag.
175                 write!(f, "{:?}", sb)?;
176             }
177             Provenance::Wildcard => {
178                 write!(f, "[wildcard]")?;
179             }
180         }
181
182         Ok(())
183     }
184
185     fn get_alloc_id(self) -> Option<AllocId> {
186         match self {
187             Provenance::Concrete { alloc_id, .. } => Some(alloc_id),
188             Provenance::Wildcard => None,
189         }
190     }
191 }
192
193 impl fmt::Debug for ProvenanceExtra {
194     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
195         match self {
196             ProvenanceExtra::Concrete(pid) => write!(f, "{pid:?}"),
197             ProvenanceExtra::Wildcard => write!(f, "<wildcard>"),
198         }
199     }
200 }
201
202 impl ProvenanceExtra {
203     pub fn and_then<T>(self, f: impl FnOnce(SbTag) -> Option<T>) -> Option<T> {
204         match self {
205             ProvenanceExtra::Concrete(pid) => f(pid),
206             ProvenanceExtra::Wildcard => None,
207         }
208     }
209 }
210
211 /// Extra per-allocation data
212 #[derive(Debug, Clone)]
213 pub struct AllocExtra {
214     /// Stacked Borrows state is only added if it is enabled.
215     pub stacked_borrows: Option<stacked_borrows::AllocExtra>,
216     /// Data race detection via the use of a vector-clock,
217     ///  this is only added if it is enabled.
218     pub data_race: Option<data_race::AllocExtra>,
219     /// Weak memory emulation via the use of store buffers,
220     ///  this is only added if it is enabled.
221     pub weak_memory: Option<weak_memory::AllocExtra>,
222 }
223
224 /// Precomputed layouts of primitive types
225 pub struct PrimitiveLayouts<'tcx> {
226     pub unit: TyAndLayout<'tcx>,
227     pub i8: TyAndLayout<'tcx>,
228     pub i16: TyAndLayout<'tcx>,
229     pub i32: TyAndLayout<'tcx>,
230     pub isize: TyAndLayout<'tcx>,
231     pub u8: TyAndLayout<'tcx>,
232     pub u16: TyAndLayout<'tcx>,
233     pub u32: TyAndLayout<'tcx>,
234     pub usize: TyAndLayout<'tcx>,
235     pub bool: TyAndLayout<'tcx>,
236     pub mut_raw_ptr: TyAndLayout<'tcx>,
237 }
238
239 impl<'mir, 'tcx: 'mir> PrimitiveLayouts<'tcx> {
240     fn new(layout_cx: LayoutCx<'tcx, TyCtxt<'tcx>>) -> Result<Self, LayoutError<'tcx>> {
241         let tcx = layout_cx.tcx;
242         let mut_raw_ptr = tcx.mk_ptr(TypeAndMut { ty: tcx.types.unit, mutbl: Mutability::Mut });
243         Ok(Self {
244             unit: layout_cx.layout_of(tcx.mk_unit())?,
245             i8: layout_cx.layout_of(tcx.types.i8)?,
246             i16: layout_cx.layout_of(tcx.types.i16)?,
247             i32: layout_cx.layout_of(tcx.types.i32)?,
248             isize: layout_cx.layout_of(tcx.types.isize)?,
249             u8: layout_cx.layout_of(tcx.types.u8)?,
250             u16: layout_cx.layout_of(tcx.types.u16)?,
251             u32: layout_cx.layout_of(tcx.types.u32)?,
252             usize: layout_cx.layout_of(tcx.types.usize)?,
253             bool: layout_cx.layout_of(tcx.types.bool)?,
254             mut_raw_ptr: layout_cx.layout_of(mut_raw_ptr)?,
255         })
256     }
257 }
258
259 /// The machine itself.
260 pub struct Evaluator<'mir, 'tcx> {
261     pub stacked_borrows: Option<stacked_borrows::GlobalState>,
262     pub data_race: Option<data_race::GlobalState>,
263     pub intptrcast: intptrcast::GlobalState,
264
265     /// Environment variables set by `setenv`.
266     /// Miri does not expose env vars from the host to the emulated program.
267     pub(crate) env_vars: EnvVars<'tcx>,
268
269     /// Program arguments (`Option` because we can only initialize them after creating the ecx).
270     /// These are *pointers* to argc/argv because macOS.
271     /// We also need the full command line as one string because of Windows.
272     pub(crate) argc: Option<MemPlace<Provenance>>,
273     pub(crate) argv: Option<MemPlace<Provenance>>,
274     pub(crate) cmd_line: Option<MemPlace<Provenance>>,
275
276     /// TLS state.
277     pub(crate) tls: TlsData<'tcx>,
278
279     /// What should Miri do when an op requires communicating with the host,
280     /// such as accessing host env vars, random number generation, and
281     /// file system access.
282     pub(crate) isolated_op: IsolatedOp,
283
284     /// Whether to enforce the validity invariant.
285     pub(crate) validate: bool,
286
287     /// Whether to enforce [ABI](Abi) of function calls.
288     pub(crate) enforce_abi: bool,
289
290     /// The table of file descriptors.
291     pub(crate) file_handler: shims::unix::FileHandler,
292     /// The table of directory descriptors.
293     pub(crate) dir_handler: shims::unix::DirHandler,
294
295     /// The "time anchor" for this machine's monotone clock (for `Instant` simulation).
296     pub(crate) time_anchor: Instant,
297
298     /// The set of threads.
299     pub(crate) threads: ThreadManager<'mir, 'tcx>,
300
301     /// Precomputed `TyLayout`s for primitive data types that are commonly used inside Miri.
302     pub(crate) layouts: PrimitiveLayouts<'tcx>,
303
304     /// Allocations that are considered roots of static memory (that may leak).
305     pub(crate) static_roots: Vec<AllocId>,
306
307     /// The `measureme` profiler used to record timing information about
308     /// the emulated program.
309     profiler: Option<measureme::Profiler>,
310     /// Used with `profiler` to cache the `StringId`s for event names
311     /// uesd with `measureme`.
312     string_cache: FxHashMap<String, measureme::StringId>,
313
314     /// Cache of `Instance` exported under the given `Symbol` name.
315     /// `None` means no `Instance` exported under the given name is found.
316     pub(crate) exported_symbols_cache: FxHashMap<Symbol, Option<Instance<'tcx>>>,
317
318     /// Whether to raise a panic in the context of the evaluated process when unsupported
319     /// functionality is encountered. If `false`, an error is propagated in the Miri application context
320     /// instead (default behavior)
321     pub(crate) panic_on_unsupported: bool,
322
323     /// Equivalent setting as RUST_BACKTRACE on encountering an error.
324     pub(crate) backtrace_style: BacktraceStyle,
325
326     /// Crates which are considered local for the purposes of error reporting.
327     pub(crate) local_crates: Vec<CrateNum>,
328
329     /// Mapping extern static names to their base pointer.
330     extern_statics: FxHashMap<Symbol, Pointer<Provenance>>,
331
332     /// The random number generator used for resolving non-determinism.
333     /// Needs to be queried by ptr_to_int, hence needs interior mutability.
334     pub(crate) rng: RefCell<StdRng>,
335
336     /// The allocation IDs to report when they are being allocated
337     /// (helps for debugging memory leaks and use after free bugs).
338     tracked_alloc_ids: HashSet<AllocId>,
339
340     /// Controls whether alignment of memory accesses is being checked.
341     pub(crate) check_alignment: AlignmentCheck,
342
343     /// Failure rate of compare_exchange_weak, between 0.0 and 1.0
344     pub(crate) cmpxchg_weak_failure_rate: f64,
345
346     /// Corresponds to -Zmiri-mute-stdout-stderr and doesn't write the output but acts as if it succeeded.
347     pub(crate) mute_stdout_stderr: bool,
348
349     /// Whether weak memory emulation is enabled
350     pub(crate) weak_memory: bool,
351
352     /// The probability of the active thread being preempted at the end of each basic block.
353     pub(crate) preemption_rate: f64,
354
355     /// If `Some`, we will report the current stack every N basic blocks.
356     pub(crate) report_progress: Option<u32>,
357     /// The number of blocks that passed since the last progress report.
358     pub(crate) since_progress_report: u32,
359 }
360
361 impl<'mir, 'tcx> Evaluator<'mir, 'tcx> {
362     pub(crate) fn new(config: &MiriConfig, layout_cx: LayoutCx<'tcx, TyCtxt<'tcx>>) -> Self {
363         let local_crates = helpers::get_local_crates(layout_cx.tcx);
364         let layouts =
365             PrimitiveLayouts::new(layout_cx).expect("Couldn't get layouts of primitive types");
366         let profiler = config.measureme_out.as_ref().map(|out| {
367             measureme::Profiler::new(out).expect("Couldn't create `measureme` profiler")
368         });
369         let rng = StdRng::seed_from_u64(config.seed.unwrap_or(0));
370         let stacked_borrows = config.stacked_borrows.then(|| {
371             RefCell::new(stacked_borrows::GlobalStateInner::new(
372                 config.tracked_pointer_tags.clone(),
373                 config.tracked_call_ids.clone(),
374                 config.retag_fields,
375             ))
376         });
377         let data_race = config.data_race_detector.then(|| data_race::GlobalState::new(config));
378         Evaluator {
379             stacked_borrows,
380             data_race,
381             intptrcast: RefCell::new(intptrcast::GlobalStateInner::new(config)),
382             // `env_vars` depends on a full interpreter so we cannot properly initialize it yet.
383             env_vars: EnvVars::default(),
384             argc: None,
385             argv: None,
386             cmd_line: None,
387             tls: TlsData::default(),
388             isolated_op: config.isolated_op,
389             validate: config.validate,
390             enforce_abi: config.check_abi,
391             file_handler: FileHandler::new(config.mute_stdout_stderr),
392             dir_handler: Default::default(),
393             time_anchor: Instant::now(),
394             layouts,
395             threads: ThreadManager::default(),
396             static_roots: Vec::new(),
397             profiler,
398             string_cache: Default::default(),
399             exported_symbols_cache: FxHashMap::default(),
400             panic_on_unsupported: config.panic_on_unsupported,
401             backtrace_style: config.backtrace_style,
402             local_crates,
403             extern_statics: FxHashMap::default(),
404             rng: RefCell::new(rng),
405             tracked_alloc_ids: config.tracked_alloc_ids.clone(),
406             check_alignment: config.check_alignment,
407             cmpxchg_weak_failure_rate: config.cmpxchg_weak_failure_rate,
408             mute_stdout_stderr: config.mute_stdout_stderr,
409             weak_memory: config.weak_memory_emulation,
410             preemption_rate: config.preemption_rate,
411             report_progress: config.report_progress,
412             since_progress_report: 0,
413         }
414     }
415
416     pub(crate) fn late_init(
417         this: &mut MiriEvalContext<'mir, 'tcx>,
418         config: &MiriConfig,
419     ) -> InterpResult<'tcx> {
420         EnvVars::init(this, config)?;
421         Evaluator::init_extern_statics(this)?;
422         Ok(())
423     }
424
425     fn add_extern_static(
426         this: &mut MiriEvalContext<'mir, 'tcx>,
427         name: &str,
428         ptr: Pointer<Option<Provenance>>,
429     ) {
430         // This got just allocated, so there definitely is a pointer here.
431         let ptr = ptr.into_pointer_or_addr().unwrap();
432         this.machine.extern_statics.try_insert(Symbol::intern(name), ptr).unwrap();
433     }
434
435     /// Sets up the "extern statics" for this machine.
436     fn init_extern_statics(this: &mut MiriEvalContext<'mir, 'tcx>) -> InterpResult<'tcx> {
437         match this.tcx.sess.target.os.as_ref() {
438             "linux" => {
439                 // "environ"
440                 Self::add_extern_static(
441                     this,
442                     "environ",
443                     this.machine.env_vars.environ.unwrap().ptr,
444                 );
445                 // A couple zero-initialized pointer-sized extern statics.
446                 // Most of them are for weak symbols, which we all set to null (indicating that the
447                 // symbol is not supported, and triggering fallback code which ends up calling a
448                 // syscall that we do support).
449                 for name in &["__cxa_thread_atexit_impl", "getrandom", "statx", "__clock_gettime64"]
450                 {
451                     let layout = this.machine.layouts.usize;
452                     let place = this.allocate(layout, MiriMemoryKind::ExternStatic.into())?;
453                     this.write_scalar(Scalar::from_machine_usize(0, this), &place.into())?;
454                     Self::add_extern_static(this, name, place.ptr);
455                 }
456             }
457             "freebsd" => {
458                 // "environ"
459                 Self::add_extern_static(
460                     this,
461                     "environ",
462                     this.machine.env_vars.environ.unwrap().ptr,
463                 );
464             }
465             "windows" => {
466                 // "_tls_used"
467                 // This is some obscure hack that is part of the Windows TLS story. It's a `u8`.
468                 let layout = this.machine.layouts.u8;
469                 let place = this.allocate(layout, MiriMemoryKind::ExternStatic.into())?;
470                 this.write_scalar(Scalar::from_u8(0), &place.into())?;
471                 Self::add_extern_static(this, "_tls_used", place.ptr);
472             }
473             _ => {} // No "extern statics" supported on this target
474         }
475         Ok(())
476     }
477
478     pub(crate) fn communicate(&self) -> bool {
479         self.isolated_op == IsolatedOp::Allow
480     }
481
482     /// Check whether the stack frame that this `FrameInfo` refers to is part of a local crate.
483     pub(crate) fn is_local(&self, frame: &FrameInfo<'_>) -> bool {
484         let def_id = frame.instance.def_id();
485         def_id.is_local() || self.local_crates.contains(&def_id.krate)
486     }
487 }
488
489 /// A rustc InterpCx for Miri.
490 pub type MiriEvalContext<'mir, 'tcx> = InterpCx<'mir, 'tcx, Evaluator<'mir, 'tcx>>;
491
492 /// A little trait that's useful to be inherited by extension traits.
493 pub trait MiriEvalContextExt<'mir, 'tcx> {
494     fn eval_context_ref<'a>(&'a self) -> &'a MiriEvalContext<'mir, 'tcx>;
495     fn eval_context_mut<'a>(&'a mut self) -> &'a mut MiriEvalContext<'mir, 'tcx>;
496 }
497 impl<'mir, 'tcx> MiriEvalContextExt<'mir, 'tcx> for MiriEvalContext<'mir, 'tcx> {
498     #[inline(always)]
499     fn eval_context_ref(&self) -> &MiriEvalContext<'mir, 'tcx> {
500         self
501     }
502     #[inline(always)]
503     fn eval_context_mut(&mut self) -> &mut MiriEvalContext<'mir, 'tcx> {
504         self
505     }
506 }
507
508 /// Machine hook implementations.
509 impl<'mir, 'tcx> Machine<'mir, 'tcx> for Evaluator<'mir, 'tcx> {
510     type MemoryKind = MiriMemoryKind;
511     type ExtraFnVal = Dlsym;
512
513     type FrameExtra = FrameData<'tcx>;
514     type AllocExtra = AllocExtra;
515
516     type Provenance = Provenance;
517     type ProvenanceExtra = ProvenanceExtra;
518
519     type MemoryMap = MonoHashMap<
520         AllocId,
521         (MemoryKind<MiriMemoryKind>, Allocation<Provenance, Self::AllocExtra>),
522     >;
523
524     const GLOBAL_KIND: Option<MiriMemoryKind> = Some(MiriMemoryKind::Global);
525
526     const PANIC_ON_ALLOC_FAIL: bool = false;
527
528     #[inline(always)]
529     fn enforce_alignment(ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
530         ecx.machine.check_alignment != AlignmentCheck::None
531     }
532
533     #[inline(always)]
534     fn force_int_for_alignment_check(ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
535         ecx.machine.check_alignment == AlignmentCheck::Int
536     }
537
538     #[inline(always)]
539     fn enforce_validity(ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
540         ecx.machine.validate
541     }
542
543     #[inline(always)]
544     fn enforce_number_init(_ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
545         true
546     }
547
548     #[inline(always)]
549     fn enforce_number_no_provenance(_ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
550         true
551     }
552
553     #[inline(always)]
554     fn enforce_abi(ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
555         ecx.machine.enforce_abi
556     }
557
558     #[inline(always)]
559     fn checked_binop_checks_overflow(ecx: &MiriEvalContext<'mir, 'tcx>) -> bool {
560         ecx.tcx.sess.overflow_checks()
561     }
562
563     #[inline(always)]
564     fn find_mir_or_eval_fn(
565         ecx: &mut MiriEvalContext<'mir, 'tcx>,
566         instance: ty::Instance<'tcx>,
567         abi: Abi,
568         args: &[OpTy<'tcx, Provenance>],
569         dest: &PlaceTy<'tcx, Provenance>,
570         ret: Option<mir::BasicBlock>,
571         unwind: StackPopUnwind,
572     ) -> InterpResult<'tcx, Option<(&'mir mir::Body<'tcx>, ty::Instance<'tcx>)>> {
573         ecx.find_mir_or_eval_fn(instance, abi, args, dest, ret, unwind)
574     }
575
576     #[inline(always)]
577     fn call_extra_fn(
578         ecx: &mut MiriEvalContext<'mir, 'tcx>,
579         fn_val: Dlsym,
580         abi: Abi,
581         args: &[OpTy<'tcx, Provenance>],
582         dest: &PlaceTy<'tcx, Provenance>,
583         ret: Option<mir::BasicBlock>,
584         _unwind: StackPopUnwind,
585     ) -> InterpResult<'tcx> {
586         ecx.call_dlsym(fn_val, abi, args, dest, ret)
587     }
588
589     #[inline(always)]
590     fn call_intrinsic(
591         ecx: &mut MiriEvalContext<'mir, 'tcx>,
592         instance: ty::Instance<'tcx>,
593         args: &[OpTy<'tcx, Provenance>],
594         dest: &PlaceTy<'tcx, Provenance>,
595         ret: Option<mir::BasicBlock>,
596         unwind: StackPopUnwind,
597     ) -> InterpResult<'tcx> {
598         ecx.call_intrinsic(instance, args, dest, ret, unwind)
599     }
600
601     #[inline(always)]
602     fn assert_panic(
603         ecx: &mut MiriEvalContext<'mir, 'tcx>,
604         msg: &mir::AssertMessage<'tcx>,
605         unwind: Option<mir::BasicBlock>,
606     ) -> InterpResult<'tcx> {
607         ecx.assert_panic(msg, unwind)
608     }
609
610     #[inline(always)]
611     fn abort(_ecx: &mut MiriEvalContext<'mir, 'tcx>, msg: String) -> InterpResult<'tcx, !> {
612         throw_machine_stop!(TerminationInfo::Abort(msg))
613     }
614
615     #[inline(always)]
616     fn binary_ptr_op(
617         ecx: &MiriEvalContext<'mir, 'tcx>,
618         bin_op: mir::BinOp,
619         left: &ImmTy<'tcx, Provenance>,
620         right: &ImmTy<'tcx, Provenance>,
621     ) -> InterpResult<'tcx, (Scalar<Provenance>, bool, ty::Ty<'tcx>)> {
622         ecx.binary_ptr_op(bin_op, left, right)
623     }
624
625     fn thread_local_static_base_pointer(
626         ecx: &mut MiriEvalContext<'mir, 'tcx>,
627         def_id: DefId,
628     ) -> InterpResult<'tcx, Pointer<Provenance>> {
629         ecx.get_or_create_thread_local_alloc(def_id)
630     }
631
632     fn extern_static_base_pointer(
633         ecx: &MiriEvalContext<'mir, 'tcx>,
634         def_id: DefId,
635     ) -> InterpResult<'tcx, Pointer<Provenance>> {
636         let link_name = ecx.item_link_name(def_id);
637         if let Some(&ptr) = ecx.machine.extern_statics.get(&link_name) {
638             // Various parts of the engine rely on `get_alloc_info` for size and alignment
639             // information. That uses the type information of this static.
640             // Make sure it matches the Miri allocation for this.
641             let Provenance::Concrete { alloc_id, .. } = ptr.provenance else {
642                 panic!("extern_statics cannot contain wildcards")
643             };
644             let (shim_size, shim_align, _kind) = ecx.get_alloc_info(alloc_id);
645             let extern_decl_layout =
646                 ecx.tcx.layout_of(ty::ParamEnv::empty().and(ecx.tcx.type_of(def_id))).unwrap();
647             if extern_decl_layout.size != shim_size || extern_decl_layout.align.abi != shim_align {
648                 throw_unsup_format!(
649                     "`extern` static `{name}` from crate `{krate}` has been declared \
650                     with a size of {decl_size} bytes and alignment of {decl_align} bytes, \
651                     but Miri emulates it via an extern static shim \
652                     with a size of {shim_size} bytes and alignment of {shim_align} bytes",
653                     name = ecx.tcx.def_path_str(def_id),
654                     krate = ecx.tcx.crate_name(def_id.krate),
655                     decl_size = extern_decl_layout.size.bytes(),
656                     decl_align = extern_decl_layout.align.abi.bytes(),
657                     shim_size = shim_size.bytes(),
658                     shim_align = shim_align.bytes(),
659                 )
660             }
661             Ok(ptr)
662         } else {
663             throw_unsup_format!(
664                 "`extern` static `{name}` from crate `{krate}` is not supported by Miri",
665                 name = ecx.tcx.def_path_str(def_id),
666                 krate = ecx.tcx.crate_name(def_id.krate),
667             )
668         }
669     }
670
671     fn adjust_allocation<'b>(
672         ecx: &MiriEvalContext<'mir, 'tcx>,
673         id: AllocId,
674         alloc: Cow<'b, Allocation>,
675         kind: Option<MemoryKind<Self::MemoryKind>>,
676     ) -> InterpResult<'tcx, Cow<'b, Allocation<Self::Provenance, Self::AllocExtra>>> {
677         let kind = kind.expect("we set our STATIC_KIND so this cannot be None");
678         if ecx.machine.tracked_alloc_ids.contains(&id) {
679             register_diagnostic(NonHaltingDiagnostic::CreatedAlloc(
680                 id,
681                 alloc.size(),
682                 alloc.align,
683                 kind,
684             ));
685         }
686
687         let alloc = alloc.into_owned();
688         let stacks = ecx.machine.stacked_borrows.as_ref().map(|stacked_borrows| {
689             Stacks::new_allocation(
690                 id,
691                 alloc.size(),
692                 stacked_borrows,
693                 kind,
694                 ecx.machine.current_span(),
695             )
696         });
697         let race_alloc = ecx.machine.data_race.as_ref().map(|data_race| {
698             data_race::AllocExtra::new_allocation(
699                 data_race,
700                 &ecx.machine.threads,
701                 alloc.size(),
702                 kind,
703             )
704         });
705         let buffer_alloc = ecx.machine.weak_memory.then(weak_memory::AllocExtra::new_allocation);
706         let alloc: Allocation<Provenance, Self::AllocExtra> = alloc.adjust_from_tcx(
707             &ecx.tcx,
708             AllocExtra {
709                 stacked_borrows: stacks.map(RefCell::new),
710                 data_race: race_alloc,
711                 weak_memory: buffer_alloc,
712             },
713             |ptr| ecx.global_base_pointer(ptr),
714         )?;
715         Ok(Cow::Owned(alloc))
716     }
717
718     fn adjust_alloc_base_pointer(
719         ecx: &MiriEvalContext<'mir, 'tcx>,
720         ptr: Pointer<AllocId>,
721     ) -> Pointer<Provenance> {
722         if cfg!(debug_assertions) {
723             // The machine promises to never call us on thread-local or extern statics.
724             let alloc_id = ptr.provenance;
725             match ecx.tcx.try_get_global_alloc(alloc_id) {
726                 Some(GlobalAlloc::Static(def_id)) if ecx.tcx.is_thread_local_static(def_id) => {
727                     panic!("adjust_alloc_base_pointer called on thread-local static")
728                 }
729                 Some(GlobalAlloc::Static(def_id)) if ecx.tcx.is_foreign_item(def_id) => {
730                     panic!("adjust_alloc_base_pointer called on extern static")
731                 }
732                 _ => {}
733             }
734         }
735         let absolute_addr = intptrcast::GlobalStateInner::rel_ptr_to_addr(ecx, ptr);
736         let sb_tag = if let Some(stacked_borrows) = &ecx.machine.stacked_borrows {
737             stacked_borrows.borrow_mut().base_ptr_tag(ptr.provenance)
738         } else {
739             // Value does not matter, SB is disabled
740             SbTag::default()
741         };
742         Pointer::new(
743             Provenance::Concrete { alloc_id: ptr.provenance, sb: sb_tag },
744             Size::from_bytes(absolute_addr),
745         )
746     }
747
748     #[inline(always)]
749     fn ptr_from_addr_cast(
750         ecx: &MiriEvalContext<'mir, 'tcx>,
751         addr: u64,
752     ) -> InterpResult<'tcx, Pointer<Option<Self::Provenance>>> {
753         intptrcast::GlobalStateInner::ptr_from_addr_cast(ecx, addr)
754     }
755
756     #[inline(always)]
757     fn ptr_from_addr_transmute(
758         ecx: &MiriEvalContext<'mir, 'tcx>,
759         addr: u64,
760     ) -> Pointer<Option<Self::Provenance>> {
761         intptrcast::GlobalStateInner::ptr_from_addr_transmute(ecx, addr)
762     }
763
764     fn expose_ptr(
765         ecx: &mut InterpCx<'mir, 'tcx, Self>,
766         ptr: Pointer<Self::Provenance>,
767     ) -> InterpResult<'tcx> {
768         match ptr.provenance {
769             Provenance::Concrete { alloc_id, sb } =>
770                 intptrcast::GlobalStateInner::expose_ptr(ecx, alloc_id, sb),
771             Provenance::Wildcard => {
772                 // No need to do anything for wildcard pointers as
773                 // their provenances have already been previously exposed.
774                 Ok(())
775             }
776         }
777     }
778
779     /// Convert a pointer with provenance into an allocation-offset pair,
780     /// or a `None` with an absolute address if that conversion is not possible.
781     fn ptr_get_alloc(
782         ecx: &MiriEvalContext<'mir, 'tcx>,
783         ptr: Pointer<Self::Provenance>,
784     ) -> Option<(AllocId, Size, Self::ProvenanceExtra)> {
785         let rel = intptrcast::GlobalStateInner::abs_ptr_to_rel(ecx, ptr);
786
787         rel.map(|(alloc_id, size)| {
788             let sb = match ptr.provenance {
789                 Provenance::Concrete { sb, .. } => ProvenanceExtra::Concrete(sb),
790                 Provenance::Wildcard => ProvenanceExtra::Wildcard,
791             };
792             (alloc_id, size, sb)
793         })
794     }
795
796     #[inline(always)]
797     fn memory_read(
798         _tcx: TyCtxt<'tcx>,
799         machine: &Self,
800         alloc_extra: &AllocExtra,
801         (alloc_id, prov_extra): (AllocId, Self::ProvenanceExtra),
802         range: AllocRange,
803     ) -> InterpResult<'tcx> {
804         if let Some(data_race) = &alloc_extra.data_race {
805             data_race.read(
806                 alloc_id,
807                 range,
808                 machine.data_race.as_ref().unwrap(),
809                 &machine.threads,
810             )?;
811         }
812         if let Some(stacked_borrows) = &alloc_extra.stacked_borrows {
813             stacked_borrows.borrow_mut().memory_read(
814                 alloc_id,
815                 prov_extra,
816                 range,
817                 machine.stacked_borrows.as_ref().unwrap(),
818                 machine.current_span(),
819                 &machine.threads,
820             )?;
821         }
822         if let Some(weak_memory) = &alloc_extra.weak_memory {
823             weak_memory.memory_accessed(range, machine.data_race.as_ref().unwrap());
824         }
825         Ok(())
826     }
827
828     #[inline(always)]
829     fn memory_written(
830         _tcx: TyCtxt<'tcx>,
831         machine: &mut Self,
832         alloc_extra: &mut AllocExtra,
833         (alloc_id, prov_extra): (AllocId, Self::ProvenanceExtra),
834         range: AllocRange,
835     ) -> InterpResult<'tcx> {
836         if let Some(data_race) = &mut alloc_extra.data_race {
837             data_race.write(
838                 alloc_id,
839                 range,
840                 machine.data_race.as_mut().unwrap(),
841                 &machine.threads,
842             )?;
843         }
844         if let Some(stacked_borrows) = &mut alloc_extra.stacked_borrows {
845             stacked_borrows.get_mut().memory_written(
846                 alloc_id,
847                 prov_extra,
848                 range,
849                 machine.stacked_borrows.as_ref().unwrap(),
850                 machine.current_span(),
851                 &machine.threads,
852             )?;
853         }
854         if let Some(weak_memory) = &alloc_extra.weak_memory {
855             weak_memory.memory_accessed(range, machine.data_race.as_ref().unwrap());
856         }
857         Ok(())
858     }
859
860     #[inline(always)]
861     fn memory_deallocated(
862         _tcx: TyCtxt<'tcx>,
863         machine: &mut Self,
864         alloc_extra: &mut AllocExtra,
865         (alloc_id, prove_extra): (AllocId, Self::ProvenanceExtra),
866         range: AllocRange,
867     ) -> InterpResult<'tcx> {
868         if machine.tracked_alloc_ids.contains(&alloc_id) {
869             register_diagnostic(NonHaltingDiagnostic::FreedAlloc(alloc_id));
870         }
871         if let Some(data_race) = &mut alloc_extra.data_race {
872             data_race.deallocate(
873                 alloc_id,
874                 range,
875                 machine.data_race.as_mut().unwrap(),
876                 &machine.threads,
877             )?;
878         }
879         if let Some(stacked_borrows) = &mut alloc_extra.stacked_borrows {
880             stacked_borrows.get_mut().memory_deallocated(
881                 alloc_id,
882                 prove_extra,
883                 range,
884                 machine.stacked_borrows.as_ref().unwrap(),
885                 &machine.threads,
886             )
887         } else {
888             Ok(())
889         }
890     }
891
892     #[inline(always)]
893     fn retag(
894         ecx: &mut InterpCx<'mir, 'tcx, Self>,
895         kind: mir::RetagKind,
896         place: &PlaceTy<'tcx, Provenance>,
897     ) -> InterpResult<'tcx> {
898         if ecx.machine.stacked_borrows.is_some() { ecx.retag(kind, place) } else { Ok(()) }
899     }
900
901     #[inline(always)]
902     fn init_frame_extra(
903         ecx: &mut InterpCx<'mir, 'tcx, Self>,
904         frame: Frame<'mir, 'tcx, Provenance>,
905     ) -> InterpResult<'tcx, Frame<'mir, 'tcx, Provenance, FrameData<'tcx>>> {
906         // Start recording our event before doing anything else
907         let timing = if let Some(profiler) = ecx.machine.profiler.as_ref() {
908             let fn_name = frame.instance.to_string();
909             let entry = ecx.machine.string_cache.entry(fn_name.clone());
910             let name = entry.or_insert_with(|| profiler.alloc_string(&*fn_name));
911
912             Some(profiler.start_recording_interval_event_detached(
913                 *name,
914                 measureme::EventId::from_label(*name),
915                 ecx.get_active_thread().to_u32(),
916             ))
917         } else {
918             None
919         };
920
921         let stacked_borrows = ecx.machine.stacked_borrows.as_ref();
922
923         let extra = FrameData {
924             stacked_borrows: stacked_borrows.map(|sb| sb.borrow_mut().new_frame()),
925             catch_unwind: None,
926             timing,
927         };
928         Ok(frame.with_extra(extra))
929     }
930
931     fn stack<'a>(
932         ecx: &'a InterpCx<'mir, 'tcx, Self>,
933     ) -> &'a [Frame<'mir, 'tcx, Self::Provenance, Self::FrameExtra>] {
934         ecx.active_thread_stack()
935     }
936
937     fn stack_mut<'a>(
938         ecx: &'a mut InterpCx<'mir, 'tcx, Self>,
939     ) -> &'a mut Vec<Frame<'mir, 'tcx, Self::Provenance, Self::FrameExtra>> {
940         ecx.active_thread_stack_mut()
941     }
942
943     fn before_terminator(ecx: &mut InterpCx<'mir, 'tcx, Self>) -> InterpResult<'tcx> {
944         // Possibly report our progress.
945         if let Some(report_progress) = ecx.machine.report_progress {
946             if ecx.machine.since_progress_report >= report_progress {
947                 register_diagnostic(NonHaltingDiagnostic::ProgressReport);
948                 ecx.machine.since_progress_report = 0;
949             }
950             // Cannot overflow, since it is strictly less than `report_progress`.
951             ecx.machine.since_progress_report += 1;
952         }
953         // These are our preemption points.
954         ecx.maybe_preempt_active_thread();
955         Ok(())
956     }
957
958     #[inline(always)]
959     fn after_stack_push(ecx: &mut InterpCx<'mir, 'tcx, Self>) -> InterpResult<'tcx> {
960         if ecx.machine.stacked_borrows.is_some() { ecx.retag_return_place() } else { Ok(()) }
961     }
962
963     #[inline(always)]
964     fn after_stack_pop(
965         ecx: &mut InterpCx<'mir, 'tcx, Self>,
966         mut frame: Frame<'mir, 'tcx, Provenance, FrameData<'tcx>>,
967         unwinding: bool,
968     ) -> InterpResult<'tcx, StackPopJump> {
969         let timing = frame.extra.timing.take();
970         if let Some(stacked_borrows) = &ecx.machine.stacked_borrows {
971             stacked_borrows.borrow_mut().end_call(&frame.extra);
972         }
973         let res = ecx.handle_stack_pop_unwind(frame.extra, unwinding);
974         if let Some(profiler) = ecx.machine.profiler.as_ref() {
975             profiler.finish_recording_interval_event(timing.unwrap());
976         }
977         res
978     }
979 }