]> git.lizzy.rs Git - rust.git/blob - compiler/rustc_codegen_llvm/src/context.rs
Auto merge of #105018 - zertosh:path_buf_deref_mut, r=dtolnay
[rust.git] / compiler / rustc_codegen_llvm / src / context.rs
1 use crate::attributes;
2 use crate::back::write::to_llvm_code_model;
3 use crate::callee::get_fn;
4 use crate::coverageinfo;
5 use crate::debuginfo;
6 use crate::errors::BranchProtectionRequiresAArch64;
7 use crate::llvm;
8 use crate::llvm_util;
9 use crate::type_::Type;
10 use crate::value::Value;
11
12 use cstr::cstr;
13 use rustc_codegen_ssa::base::wants_msvc_seh;
14 use rustc_codegen_ssa::traits::*;
15 use rustc_data_structures::base_n;
16 use rustc_data_structures::fx::FxHashMap;
17 use rustc_data_structures::small_c_str::SmallCStr;
18 use rustc_hir::def_id::DefId;
19 use rustc_middle::mir::mono::CodegenUnit;
20 use rustc_middle::ty::layout::{
21     FnAbiError, FnAbiOfHelpers, FnAbiRequest, HasParamEnv, LayoutError, LayoutOfHelpers,
22     TyAndLayout,
23 };
24 use rustc_middle::ty::{self, Instance, Ty, TyCtxt};
25 use rustc_middle::{bug, span_bug};
26 use rustc_session::config::{BranchProtection, CFGuard, CFProtection};
27 use rustc_session::config::{CrateType, DebugInfo, PAuthKey, PacRet};
28 use rustc_session::Session;
29 use rustc_span::source_map::Span;
30 use rustc_span::source_map::Spanned;
31 use rustc_target::abi::{
32     call::FnAbi, HasDataLayout, PointeeInfo, Size, TargetDataLayout, VariantIdx,
33 };
34 use rustc_target::spec::{HasTargetSpec, RelocModel, Target, TlsModel};
35 use smallvec::SmallVec;
36
37 use std::cell::{Cell, RefCell};
38 use std::ffi::CStr;
39 use std::str;
40
41 /// There is one `CodegenCx` per compilation unit. Each one has its own LLVM
42 /// `llvm::Context` so that several compilation units may be optimized in parallel.
43 /// All other LLVM data structures in the `CodegenCx` are tied to that `llvm::Context`.
44 pub struct CodegenCx<'ll, 'tcx> {
45     pub tcx: TyCtxt<'tcx>,
46     pub check_overflow: bool,
47     pub use_dll_storage_attrs: bool,
48     pub tls_model: llvm::ThreadLocalMode,
49
50     pub llmod: &'ll llvm::Module,
51     pub llcx: &'ll llvm::Context,
52     pub codegen_unit: &'tcx CodegenUnit<'tcx>,
53
54     /// Cache instances of monomorphic and polymorphic items
55     pub instances: RefCell<FxHashMap<Instance<'tcx>, &'ll Value>>,
56     /// Cache generated vtables
57     pub vtables:
58         RefCell<FxHashMap<(Ty<'tcx>, Option<ty::PolyExistentialTraitRef<'tcx>>), &'ll Value>>,
59     /// Cache of constant strings,
60     pub const_str_cache: RefCell<FxHashMap<String, &'ll Value>>,
61
62     /// Reverse-direction for const ptrs cast from globals.
63     ///
64     /// Key is a Value holding a `*T`,
65     /// Val is a Value holding a `*[T]`.
66     ///
67     /// Needed because LLVM loses pointer->pointee association
68     /// when we ptrcast, and we have to ptrcast during codegen
69     /// of a `[T]` const because we form a slice, a `(*T,usize)` pair, not
70     /// a pointer to an LLVM array type. Similar for trait objects.
71     pub const_unsized: RefCell<FxHashMap<&'ll Value, &'ll Value>>,
72
73     /// Cache of emitted const globals (value -> global)
74     pub const_globals: RefCell<FxHashMap<&'ll Value, &'ll Value>>,
75
76     /// List of globals for static variables which need to be passed to the
77     /// LLVM function ReplaceAllUsesWith (RAUW) when codegen is complete.
78     /// (We have to make sure we don't invalidate any Values referring
79     /// to constants.)
80     pub statics_to_rauw: RefCell<Vec<(&'ll Value, &'ll Value)>>,
81
82     /// Statics that will be placed in the llvm.used variable
83     /// See <https://llvm.org/docs/LangRef.html#the-llvm-used-global-variable> for details
84     pub used_statics: RefCell<Vec<&'ll Value>>,
85
86     /// Statics that will be placed in the llvm.compiler.used variable
87     /// See <https://llvm.org/docs/LangRef.html#the-llvm-compiler-used-global-variable> for details
88     pub compiler_used_statics: RefCell<Vec<&'ll Value>>,
89
90     /// Mapping of non-scalar types to llvm types and field remapping if needed.
91     pub type_lowering: RefCell<FxHashMap<(Ty<'tcx>, Option<VariantIdx>), TypeLowering<'ll>>>,
92
93     /// Mapping of scalar types to llvm types.
94     pub scalar_lltypes: RefCell<FxHashMap<Ty<'tcx>, &'ll Type>>,
95
96     pub pointee_infos: RefCell<FxHashMap<(Ty<'tcx>, Size), Option<PointeeInfo>>>,
97     pub isize_ty: &'ll Type,
98
99     pub coverage_cx: Option<coverageinfo::CrateCoverageContext<'ll, 'tcx>>,
100     pub dbg_cx: Option<debuginfo::CodegenUnitDebugContext<'ll, 'tcx>>,
101
102     eh_personality: Cell<Option<&'ll Value>>,
103     eh_catch_typeinfo: Cell<Option<&'ll Value>>,
104     pub rust_try_fn: Cell<Option<(&'ll Type, &'ll Value)>>,
105
106     intrinsics: RefCell<FxHashMap<&'static str, (&'ll Type, &'ll Value)>>,
107
108     /// A counter that is used for generating local symbol names
109     local_gen_sym_counter: Cell<usize>,
110
111     /// `codegen_static` will sometimes create a second global variable with a
112     /// different type and clear the symbol name of the original global.
113     /// `global_asm!` needs to be able to find this new global so that it can
114     /// compute the correct mangled symbol name to insert into the asm.
115     pub renamed_statics: RefCell<FxHashMap<DefId, &'ll Value>>,
116 }
117
118 pub struct TypeLowering<'ll> {
119     /// Associated LLVM type
120     pub lltype: &'ll Type,
121
122     /// If padding is used the slice maps fields from source order
123     /// to llvm order.
124     pub field_remapping: Option<SmallVec<[u32; 4]>>,
125 }
126
127 fn to_llvm_tls_model(tls_model: TlsModel) -> llvm::ThreadLocalMode {
128     match tls_model {
129         TlsModel::GeneralDynamic => llvm::ThreadLocalMode::GeneralDynamic,
130         TlsModel::LocalDynamic => llvm::ThreadLocalMode::LocalDynamic,
131         TlsModel::InitialExec => llvm::ThreadLocalMode::InitialExec,
132         TlsModel::LocalExec => llvm::ThreadLocalMode::LocalExec,
133     }
134 }
135
136 pub unsafe fn create_module<'ll>(
137     tcx: TyCtxt<'_>,
138     llcx: &'ll llvm::Context,
139     mod_name: &str,
140 ) -> &'ll llvm::Module {
141     let sess = tcx.sess;
142     let mod_name = SmallCStr::new(mod_name);
143     let llmod = llvm::LLVMModuleCreateWithNameInContext(mod_name.as_ptr(), llcx);
144
145     let mut target_data_layout = sess.target.data_layout.to_string();
146     let llvm_version = llvm_util::get_version();
147     if llvm_version < (14, 0, 0) {
148         if sess.target.llvm_target == "i686-pc-windows-msvc"
149             || sess.target.llvm_target == "i586-pc-windows-msvc"
150         {
151             target_data_layout =
152                 "e-m:x-p:32:32-p270:32:32-p271:32:32-p272:64:64-i64:64-f80:32-n8:16:32-a:0:32-S32"
153                     .to_string();
154         }
155         if sess.target.arch == "wasm32" {
156             target_data_layout = target_data_layout.replace("-p10:8:8-p20:8:8", "");
157         }
158     }
159     if llvm_version < (16, 0, 0) {
160         if sess.target.arch == "s390x" {
161             target_data_layout = target_data_layout.replace("-v128:64", "");
162         }
163
164         if sess.target.arch == "riscv64" {
165             target_data_layout = target_data_layout.replace("-n32:64-", "-n64-");
166         }
167     }
168
169     // Ensure the data-layout values hardcoded remain the defaults.
170     if sess.target.is_builtin {
171         let tm = crate::back::write::create_informational_target_machine(tcx.sess);
172         llvm::LLVMRustSetDataLayoutFromTargetMachine(llmod, tm);
173         llvm::LLVMRustDisposeTargetMachine(tm);
174
175         let llvm_data_layout = llvm::LLVMGetDataLayoutStr(llmod);
176         let llvm_data_layout = str::from_utf8(CStr::from_ptr(llvm_data_layout).to_bytes())
177             .expect("got a non-UTF8 data-layout from LLVM");
178
179         // Unfortunately LLVM target specs change over time, and right now we
180         // don't have proper support to work with any more than one
181         // `data_layout` than the one that is in the rust-lang/rust repo. If
182         // this compiler is configured against a custom LLVM, we may have a
183         // differing data layout, even though we should update our own to use
184         // that one.
185         //
186         // As an interim hack, if CFG_LLVM_ROOT is not an empty string then we
187         // disable this check entirely as we may be configured with something
188         // that has a different target layout.
189         //
190         // Unsure if this will actually cause breakage when rustc is configured
191         // as such.
192         //
193         // FIXME(#34960)
194         let cfg_llvm_root = option_env!("CFG_LLVM_ROOT").unwrap_or("");
195         let custom_llvm_used = cfg_llvm_root.trim() != "";
196
197         if !custom_llvm_used && target_data_layout != llvm_data_layout {
198             bug!(
199                 "data-layout for target `{rustc_target}`, `{rustc_layout}`, \
200                   differs from LLVM target's `{llvm_target}` default layout, `{llvm_layout}`",
201                 rustc_target = sess.opts.target_triple,
202                 rustc_layout = target_data_layout,
203                 llvm_target = sess.target.llvm_target,
204                 llvm_layout = llvm_data_layout
205             );
206         }
207     }
208
209     let data_layout = SmallCStr::new(&target_data_layout);
210     llvm::LLVMSetDataLayout(llmod, data_layout.as_ptr());
211
212     let llvm_target = SmallCStr::new(&sess.target.llvm_target);
213     llvm::LLVMRustSetNormalizedTarget(llmod, llvm_target.as_ptr());
214
215     let reloc_model = sess.relocation_model();
216     if matches!(reloc_model, RelocModel::Pic | RelocModel::Pie) {
217         llvm::LLVMRustSetModulePICLevel(llmod);
218         // PIE is potentially more effective than PIC, but can only be used in executables.
219         // If all our outputs are executables, then we can relax PIC to PIE.
220         if reloc_model == RelocModel::Pie
221             || sess.crate_types().iter().all(|ty| *ty == CrateType::Executable)
222         {
223             llvm::LLVMRustSetModulePIELevel(llmod);
224         }
225     }
226
227     // Linking object files with different code models is undefined behavior
228     // because the compiler would have to generate additional code (to span
229     // longer jumps) if a larger code model is used with a smaller one.
230     //
231     // See https://reviews.llvm.org/D52322 and https://reviews.llvm.org/D52323.
232     llvm::LLVMRustSetModuleCodeModel(llmod, to_llvm_code_model(sess.code_model()));
233
234     // If skipping the PLT is enabled, we need to add some module metadata
235     // to ensure intrinsic calls don't use it.
236     if !sess.needs_plt() {
237         let avoid_plt = "RtLibUseGOT\0".as_ptr().cast();
238         llvm::LLVMRustAddModuleFlag(llmod, llvm::LLVMModFlagBehavior::Warning, avoid_plt, 1);
239     }
240
241     if sess.is_sanitizer_cfi_enabled() {
242         // FIXME(rcvalle): Add support for non canonical jump tables.
243         let canonical_jump_tables = "CFI Canonical Jump Tables\0".as_ptr().cast();
244         // FIXME(rcvalle): Add it with Override behavior flag.
245         llvm::LLVMRustAddModuleFlag(
246             llmod,
247             llvm::LLVMModFlagBehavior::Warning,
248             canonical_jump_tables,
249             1,
250         );
251     }
252
253     if sess.is_sanitizer_kcfi_enabled() {
254         let kcfi = "kcfi\0".as_ptr().cast();
255         llvm::LLVMRustAddModuleFlag(llmod, llvm::LLVMModFlagBehavior::Override, kcfi, 1);
256     }
257
258     // Control Flow Guard is currently only supported by the MSVC linker on Windows.
259     if sess.target.is_like_msvc {
260         match sess.opts.cg.control_flow_guard {
261             CFGuard::Disabled => {}
262             CFGuard::NoChecks => {
263                 // Set `cfguard=1` module flag to emit metadata only.
264                 llvm::LLVMRustAddModuleFlag(
265                     llmod,
266                     llvm::LLVMModFlagBehavior::Warning,
267                     "cfguard\0".as_ptr() as *const _,
268                     1,
269                 )
270             }
271             CFGuard::Checks => {
272                 // Set `cfguard=2` module flag to emit metadata and checks.
273                 llvm::LLVMRustAddModuleFlag(
274                     llmod,
275                     llvm::LLVMModFlagBehavior::Warning,
276                     "cfguard\0".as_ptr() as *const _,
277                     2,
278                 )
279             }
280         }
281     }
282
283     if let Some(BranchProtection { bti, pac_ret }) = sess.opts.unstable_opts.branch_protection {
284         if sess.target.arch != "aarch64" {
285             sess.emit_err(BranchProtectionRequiresAArch64);
286         } else {
287             llvm::LLVMRustAddModuleFlag(
288                 llmod,
289                 llvm::LLVMModFlagBehavior::Error,
290                 "branch-target-enforcement\0".as_ptr().cast(),
291                 bti.into(),
292             );
293             llvm::LLVMRustAddModuleFlag(
294                 llmod,
295                 llvm::LLVMModFlagBehavior::Error,
296                 "sign-return-address\0".as_ptr().cast(),
297                 pac_ret.is_some().into(),
298             );
299             let pac_opts = pac_ret.unwrap_or(PacRet { leaf: false, key: PAuthKey::A });
300             llvm::LLVMRustAddModuleFlag(
301                 llmod,
302                 llvm::LLVMModFlagBehavior::Error,
303                 "sign-return-address-all\0".as_ptr().cast(),
304                 pac_opts.leaf.into(),
305             );
306             llvm::LLVMRustAddModuleFlag(
307                 llmod,
308                 llvm::LLVMModFlagBehavior::Error,
309                 "sign-return-address-with-bkey\0".as_ptr().cast(),
310                 u32::from(pac_opts.key == PAuthKey::B),
311             );
312         }
313     }
314
315     // Pass on the control-flow protection flags to LLVM (equivalent to `-fcf-protection` in Clang).
316     if let CFProtection::Branch | CFProtection::Full = sess.opts.unstable_opts.cf_protection {
317         llvm::LLVMRustAddModuleFlag(
318             llmod,
319             llvm::LLVMModFlagBehavior::Override,
320             "cf-protection-branch\0".as_ptr().cast(),
321             1,
322         )
323     }
324     if let CFProtection::Return | CFProtection::Full = sess.opts.unstable_opts.cf_protection {
325         llvm::LLVMRustAddModuleFlag(
326             llmod,
327             llvm::LLVMModFlagBehavior::Override,
328             "cf-protection-return\0".as_ptr().cast(),
329             1,
330         )
331     }
332
333     if sess.opts.unstable_opts.virtual_function_elimination {
334         llvm::LLVMRustAddModuleFlag(
335             llmod,
336             llvm::LLVMModFlagBehavior::Error,
337             "Virtual Function Elim\0".as_ptr().cast(),
338             1,
339         );
340     }
341
342     llmod
343 }
344
345 impl<'ll, 'tcx> CodegenCx<'ll, 'tcx> {
346     pub(crate) fn new(
347         tcx: TyCtxt<'tcx>,
348         codegen_unit: &'tcx CodegenUnit<'tcx>,
349         llvm_module: &'ll crate::ModuleLlvm,
350     ) -> Self {
351         // An interesting part of Windows which MSVC forces our hand on (and
352         // apparently MinGW didn't) is the usage of `dllimport` and `dllexport`
353         // attributes in LLVM IR as well as native dependencies (in C these
354         // correspond to `__declspec(dllimport)`).
355         //
356         // LD (BFD) in MinGW mode can often correctly guess `dllexport` but
357         // relying on that can result in issues like #50176.
358         // LLD won't support that and expects symbols with proper attributes.
359         // Because of that we make MinGW target emit dllexport just like MSVC.
360         // When it comes to dllimport we use it for constants but for functions
361         // rely on the linker to do the right thing. Opposed to dllexport this
362         // task is easy for them (both LD and LLD) and allows us to easily use
363         // symbols from static libraries in shared libraries.
364         //
365         // Whenever a dynamic library is built on Windows it must have its public
366         // interface specified by functions tagged with `dllexport` or otherwise
367         // they're not available to be linked against. This poses a few problems
368         // for the compiler, some of which are somewhat fundamental, but we use
369         // the `use_dll_storage_attrs` variable below to attach the `dllexport`
370         // attribute to all LLVM functions that are exported e.g., they're
371         // already tagged with external linkage). This is suboptimal for a few
372         // reasons:
373         //
374         // * If an object file will never be included in a dynamic library,
375         //   there's no need to attach the dllexport attribute. Most object
376         //   files in Rust are not destined to become part of a dll as binaries
377         //   are statically linked by default.
378         // * If the compiler is emitting both an rlib and a dylib, the same
379         //   source object file is currently used but with MSVC this may be less
380         //   feasible. The compiler may be able to get around this, but it may
381         //   involve some invasive changes to deal with this.
382         //
383         // The flip side of this situation is that whenever you link to a dll and
384         // you import a function from it, the import should be tagged with
385         // `dllimport`. At this time, however, the compiler does not emit
386         // `dllimport` for any declarations other than constants (where it is
387         // required), which is again suboptimal for even more reasons!
388         //
389         // * Calling a function imported from another dll without using
390         //   `dllimport` causes the linker/compiler to have extra overhead (one
391         //   `jmp` instruction on x86) when calling the function.
392         // * The same object file may be used in different circumstances, so a
393         //   function may be imported from a dll if the object is linked into a
394         //   dll, but it may be just linked against if linked into an rlib.
395         // * The compiler has no knowledge about whether native functions should
396         //   be tagged dllimport or not.
397         //
398         // For now the compiler takes the perf hit (I do not have any numbers to
399         // this effect) by marking very little as `dllimport` and praying the
400         // linker will take care of everything. Fixing this problem will likely
401         // require adding a few attributes to Rust itself (feature gated at the
402         // start) and then strongly recommending static linkage on Windows!
403         let use_dll_storage_attrs = tcx.sess.target.is_like_windows;
404
405         let check_overflow = tcx.sess.overflow_checks();
406
407         let tls_model = to_llvm_tls_model(tcx.sess.tls_model());
408
409         let (llcx, llmod) = (&*llvm_module.llcx, llvm_module.llmod());
410
411         let coverage_cx = if tcx.sess.instrument_coverage() {
412             let covctx = coverageinfo::CrateCoverageContext::new();
413             Some(covctx)
414         } else {
415             None
416         };
417
418         let dbg_cx = if tcx.sess.opts.debuginfo != DebugInfo::None {
419             let dctx = debuginfo::CodegenUnitDebugContext::new(llmod);
420             debuginfo::metadata::build_compile_unit_di_node(
421                 tcx,
422                 codegen_unit.name().as_str(),
423                 &dctx,
424             );
425             Some(dctx)
426         } else {
427             None
428         };
429
430         let isize_ty = Type::ix_llcx(llcx, tcx.data_layout.pointer_size.bits());
431
432         CodegenCx {
433             tcx,
434             check_overflow,
435             use_dll_storage_attrs,
436             tls_model,
437             llmod,
438             llcx,
439             codegen_unit,
440             instances: Default::default(),
441             vtables: Default::default(),
442             const_str_cache: Default::default(),
443             const_unsized: Default::default(),
444             const_globals: Default::default(),
445             statics_to_rauw: RefCell::new(Vec::new()),
446             used_statics: RefCell::new(Vec::new()),
447             compiler_used_statics: RefCell::new(Vec::new()),
448             type_lowering: Default::default(),
449             scalar_lltypes: Default::default(),
450             pointee_infos: Default::default(),
451             isize_ty,
452             coverage_cx,
453             dbg_cx,
454             eh_personality: Cell::new(None),
455             eh_catch_typeinfo: Cell::new(None),
456             rust_try_fn: Cell::new(None),
457             intrinsics: Default::default(),
458             local_gen_sym_counter: Cell::new(0),
459             renamed_statics: Default::default(),
460         }
461     }
462
463     pub(crate) fn statics_to_rauw(&self) -> &RefCell<Vec<(&'ll Value, &'ll Value)>> {
464         &self.statics_to_rauw
465     }
466
467     #[inline]
468     pub fn coverage_context(&self) -> Option<&coverageinfo::CrateCoverageContext<'ll, 'tcx>> {
469         self.coverage_cx.as_ref()
470     }
471
472     pub(crate) fn create_used_variable_impl(&self, name: &'static CStr, values: &[&'ll Value]) {
473         let section = cstr!("llvm.metadata");
474         let array = self.const_array(self.type_ptr_to(self.type_i8()), values);
475
476         unsafe {
477             let g = llvm::LLVMAddGlobal(self.llmod, self.val_ty(array), name.as_ptr());
478             llvm::LLVMSetInitializer(g, array);
479             llvm::LLVMRustSetLinkage(g, llvm::Linkage::AppendingLinkage);
480             llvm::LLVMSetSection(g, section.as_ptr());
481         }
482     }
483 }
484
485 impl<'ll, 'tcx> MiscMethods<'tcx> for CodegenCx<'ll, 'tcx> {
486     fn vtables(
487         &self,
488     ) -> &RefCell<FxHashMap<(Ty<'tcx>, Option<ty::PolyExistentialTraitRef<'tcx>>), &'ll Value>>
489     {
490         &self.vtables
491     }
492
493     fn get_fn(&self, instance: Instance<'tcx>) -> &'ll Value {
494         get_fn(self, instance)
495     }
496
497     fn get_fn_addr(&self, instance: Instance<'tcx>) -> &'ll Value {
498         get_fn(self, instance)
499     }
500
501     fn eh_personality(&self) -> &'ll Value {
502         // The exception handling personality function.
503         //
504         // If our compilation unit has the `eh_personality` lang item somewhere
505         // within it, then we just need to codegen that. Otherwise, we're
506         // building an rlib which will depend on some upstream implementation of
507         // this function, so we just codegen a generic reference to it. We don't
508         // specify any of the types for the function, we just make it a symbol
509         // that LLVM can later use.
510         //
511         // Note that MSVC is a little special here in that we don't use the
512         // `eh_personality` lang item at all. Currently LLVM has support for
513         // both Dwarf and SEH unwind mechanisms for MSVC targets and uses the
514         // *name of the personality function* to decide what kind of unwind side
515         // tables/landing pads to emit. It looks like Dwarf is used by default,
516         // injecting a dependency on the `_Unwind_Resume` symbol for resuming
517         // an "exception", but for MSVC we want to force SEH. This means that we
518         // can't actually have the personality function be our standard
519         // `rust_eh_personality` function, but rather we wired it up to the
520         // CRT's custom personality function, which forces LLVM to consider
521         // landing pads as "landing pads for SEH".
522         if let Some(llpersonality) = self.eh_personality.get() {
523             return llpersonality;
524         }
525         let tcx = self.tcx;
526         let llfn = match tcx.lang_items().eh_personality() {
527             Some(def_id) if !wants_msvc_seh(self.sess()) => self.get_fn_addr(
528                 ty::Instance::resolve(
529                     tcx,
530                     ty::ParamEnv::reveal_all(),
531                     def_id,
532                     tcx.intern_substs(&[]),
533                 )
534                 .unwrap()
535                 .unwrap(),
536             ),
537             _ => {
538                 let name = if wants_msvc_seh(self.sess()) {
539                     "__CxxFrameHandler3"
540                 } else {
541                     "rust_eh_personality"
542                 };
543                 if let Some(llfn) = self.get_declared_value(name) {
544                     llfn
545                 } else {
546                     let fty = self.type_variadic_func(&[], self.type_i32());
547                     let llfn = self.declare_cfn(name, llvm::UnnamedAddr::Global, fty);
548                     let target_cpu = attributes::target_cpu_attr(self);
549                     attributes::apply_to_llfn(llfn, llvm::AttributePlace::Function, &[target_cpu]);
550                     llfn
551                 }
552             }
553         };
554         self.eh_personality.set(Some(llfn));
555         llfn
556     }
557
558     fn sess(&self) -> &Session {
559         self.tcx.sess
560     }
561
562     fn check_overflow(&self) -> bool {
563         self.check_overflow
564     }
565
566     fn codegen_unit(&self) -> &'tcx CodegenUnit<'tcx> {
567         self.codegen_unit
568     }
569
570     fn set_frame_pointer_type(&self, llfn: &'ll Value) {
571         if let Some(attr) = attributes::frame_pointer_type_attr(self) {
572             attributes::apply_to_llfn(llfn, llvm::AttributePlace::Function, &[attr]);
573         }
574     }
575
576     fn apply_target_cpu_attr(&self, llfn: &'ll Value) {
577         let mut attrs = SmallVec::<[_; 2]>::new();
578         attrs.push(attributes::target_cpu_attr(self));
579         attrs.extend(attributes::tune_cpu_attr(self));
580         attributes::apply_to_llfn(llfn, llvm::AttributePlace::Function, &attrs);
581     }
582
583     fn declare_c_main(&self, fn_type: Self::Type) -> Option<Self::Function> {
584         let entry_name = self.sess().target.entry_name.as_ref();
585         if self.get_declared_value(entry_name).is_none() {
586             Some(self.declare_entry_fn(
587                 entry_name,
588                 self.sess().target.entry_abi.into(),
589                 llvm::UnnamedAddr::Global,
590                 fn_type,
591             ))
592         } else {
593             // If the symbol already exists, it is an error: for example, the user wrote
594             // #[no_mangle] extern "C" fn main(..) {..}
595             // instead of #[start]
596             None
597         }
598     }
599 }
600
601 impl<'ll> CodegenCx<'ll, '_> {
602     pub(crate) fn get_intrinsic(&self, key: &str) -> (&'ll Type, &'ll Value) {
603         if let Some(v) = self.intrinsics.borrow().get(key).cloned() {
604             return v;
605         }
606
607         self.declare_intrinsic(key).unwrap_or_else(|| bug!("unknown intrinsic '{}'", key))
608     }
609
610     fn insert_intrinsic(
611         &self,
612         name: &'static str,
613         args: Option<&[&'ll llvm::Type]>,
614         ret: &'ll llvm::Type,
615     ) -> (&'ll llvm::Type, &'ll llvm::Value) {
616         let fn_ty = if let Some(args) = args {
617             self.type_func(args, ret)
618         } else {
619             self.type_variadic_func(&[], ret)
620         };
621         let f = self.declare_cfn(name, llvm::UnnamedAddr::No, fn_ty);
622         self.intrinsics.borrow_mut().insert(name, (fn_ty, f));
623         (fn_ty, f)
624     }
625
626     fn declare_intrinsic(&self, key: &str) -> Option<(&'ll Type, &'ll Value)> {
627         macro_rules! ifn {
628             ($name:expr, fn() -> $ret:expr) => (
629                 if key == $name {
630                     return Some(self.insert_intrinsic($name, Some(&[]), $ret));
631                 }
632             );
633             ($name:expr, fn(...) -> $ret:expr) => (
634                 if key == $name {
635                     return Some(self.insert_intrinsic($name, None, $ret));
636                 }
637             );
638             ($name:expr, fn($($arg:expr),*) -> $ret:expr) => (
639                 if key == $name {
640                     return Some(self.insert_intrinsic($name, Some(&[$($arg),*]), $ret));
641                 }
642             );
643         }
644         macro_rules! mk_struct {
645             ($($field_ty:expr),*) => (self.type_struct( &[$($field_ty),*], false))
646         }
647
648         let i8p = self.type_i8p();
649         let void = self.type_void();
650         let i1 = self.type_i1();
651         let t_i8 = self.type_i8();
652         let t_i16 = self.type_i16();
653         let t_i32 = self.type_i32();
654         let t_i64 = self.type_i64();
655         let t_i128 = self.type_i128();
656         let t_isize = self.type_isize();
657         let t_f32 = self.type_f32();
658         let t_f64 = self.type_f64();
659         let t_metadata = self.type_metadata();
660
661         ifn!("llvm.wasm.trunc.unsigned.i32.f32", fn(t_f32) -> t_i32);
662         ifn!("llvm.wasm.trunc.unsigned.i32.f64", fn(t_f64) -> t_i32);
663         ifn!("llvm.wasm.trunc.unsigned.i64.f32", fn(t_f32) -> t_i64);
664         ifn!("llvm.wasm.trunc.unsigned.i64.f64", fn(t_f64) -> t_i64);
665         ifn!("llvm.wasm.trunc.signed.i32.f32", fn(t_f32) -> t_i32);
666         ifn!("llvm.wasm.trunc.signed.i32.f64", fn(t_f64) -> t_i32);
667         ifn!("llvm.wasm.trunc.signed.i64.f32", fn(t_f32) -> t_i64);
668         ifn!("llvm.wasm.trunc.signed.i64.f64", fn(t_f64) -> t_i64);
669
670         ifn!("llvm.fptosi.sat.i8.f32", fn(t_f32) -> t_i8);
671         ifn!("llvm.fptosi.sat.i16.f32", fn(t_f32) -> t_i16);
672         ifn!("llvm.fptosi.sat.i32.f32", fn(t_f32) -> t_i32);
673         ifn!("llvm.fptosi.sat.i64.f32", fn(t_f32) -> t_i64);
674         ifn!("llvm.fptosi.sat.i128.f32", fn(t_f32) -> t_i128);
675         ifn!("llvm.fptosi.sat.i8.f64", fn(t_f64) -> t_i8);
676         ifn!("llvm.fptosi.sat.i16.f64", fn(t_f64) -> t_i16);
677         ifn!("llvm.fptosi.sat.i32.f64", fn(t_f64) -> t_i32);
678         ifn!("llvm.fptosi.sat.i64.f64", fn(t_f64) -> t_i64);
679         ifn!("llvm.fptosi.sat.i128.f64", fn(t_f64) -> t_i128);
680
681         ifn!("llvm.fptoui.sat.i8.f32", fn(t_f32) -> t_i8);
682         ifn!("llvm.fptoui.sat.i16.f32", fn(t_f32) -> t_i16);
683         ifn!("llvm.fptoui.sat.i32.f32", fn(t_f32) -> t_i32);
684         ifn!("llvm.fptoui.sat.i64.f32", fn(t_f32) -> t_i64);
685         ifn!("llvm.fptoui.sat.i128.f32", fn(t_f32) -> t_i128);
686         ifn!("llvm.fptoui.sat.i8.f64", fn(t_f64) -> t_i8);
687         ifn!("llvm.fptoui.sat.i16.f64", fn(t_f64) -> t_i16);
688         ifn!("llvm.fptoui.sat.i32.f64", fn(t_f64) -> t_i32);
689         ifn!("llvm.fptoui.sat.i64.f64", fn(t_f64) -> t_i64);
690         ifn!("llvm.fptoui.sat.i128.f64", fn(t_f64) -> t_i128);
691
692         ifn!("llvm.trap", fn() -> void);
693         ifn!("llvm.debugtrap", fn() -> void);
694         ifn!("llvm.frameaddress", fn(t_i32) -> i8p);
695
696         ifn!("llvm.powi.f32", fn(t_f32, t_i32) -> t_f32);
697         ifn!("llvm.powi.f64", fn(t_f64, t_i32) -> t_f64);
698
699         ifn!("llvm.pow.f32", fn(t_f32, t_f32) -> t_f32);
700         ifn!("llvm.pow.f64", fn(t_f64, t_f64) -> t_f64);
701
702         ifn!("llvm.sqrt.f32", fn(t_f32) -> t_f32);
703         ifn!("llvm.sqrt.f64", fn(t_f64) -> t_f64);
704
705         ifn!("llvm.sin.f32", fn(t_f32) -> t_f32);
706         ifn!("llvm.sin.f64", fn(t_f64) -> t_f64);
707
708         ifn!("llvm.cos.f32", fn(t_f32) -> t_f32);
709         ifn!("llvm.cos.f64", fn(t_f64) -> t_f64);
710
711         ifn!("llvm.exp.f32", fn(t_f32) -> t_f32);
712         ifn!("llvm.exp.f64", fn(t_f64) -> t_f64);
713
714         ifn!("llvm.exp2.f32", fn(t_f32) -> t_f32);
715         ifn!("llvm.exp2.f64", fn(t_f64) -> t_f64);
716
717         ifn!("llvm.log.f32", fn(t_f32) -> t_f32);
718         ifn!("llvm.log.f64", fn(t_f64) -> t_f64);
719
720         ifn!("llvm.log10.f32", fn(t_f32) -> t_f32);
721         ifn!("llvm.log10.f64", fn(t_f64) -> t_f64);
722
723         ifn!("llvm.log2.f32", fn(t_f32) -> t_f32);
724         ifn!("llvm.log2.f64", fn(t_f64) -> t_f64);
725
726         ifn!("llvm.fma.f32", fn(t_f32, t_f32, t_f32) -> t_f32);
727         ifn!("llvm.fma.f64", fn(t_f64, t_f64, t_f64) -> t_f64);
728
729         ifn!("llvm.fabs.f32", fn(t_f32) -> t_f32);
730         ifn!("llvm.fabs.f64", fn(t_f64) -> t_f64);
731
732         ifn!("llvm.minnum.f32", fn(t_f32, t_f32) -> t_f32);
733         ifn!("llvm.minnum.f64", fn(t_f64, t_f64) -> t_f64);
734         ifn!("llvm.maxnum.f32", fn(t_f32, t_f32) -> t_f32);
735         ifn!("llvm.maxnum.f64", fn(t_f64, t_f64) -> t_f64);
736
737         ifn!("llvm.floor.f32", fn(t_f32) -> t_f32);
738         ifn!("llvm.floor.f64", fn(t_f64) -> t_f64);
739
740         ifn!("llvm.ceil.f32", fn(t_f32) -> t_f32);
741         ifn!("llvm.ceil.f64", fn(t_f64) -> t_f64);
742
743         ifn!("llvm.trunc.f32", fn(t_f32) -> t_f32);
744         ifn!("llvm.trunc.f64", fn(t_f64) -> t_f64);
745
746         ifn!("llvm.copysign.f32", fn(t_f32, t_f32) -> t_f32);
747         ifn!("llvm.copysign.f64", fn(t_f64, t_f64) -> t_f64);
748         ifn!("llvm.round.f32", fn(t_f32) -> t_f32);
749         ifn!("llvm.round.f64", fn(t_f64) -> t_f64);
750
751         ifn!("llvm.rint.f32", fn(t_f32) -> t_f32);
752         ifn!("llvm.rint.f64", fn(t_f64) -> t_f64);
753         ifn!("llvm.nearbyint.f32", fn(t_f32) -> t_f32);
754         ifn!("llvm.nearbyint.f64", fn(t_f64) -> t_f64);
755
756         ifn!("llvm.ctpop.i8", fn(t_i8) -> t_i8);
757         ifn!("llvm.ctpop.i16", fn(t_i16) -> t_i16);
758         ifn!("llvm.ctpop.i32", fn(t_i32) -> t_i32);
759         ifn!("llvm.ctpop.i64", fn(t_i64) -> t_i64);
760         ifn!("llvm.ctpop.i128", fn(t_i128) -> t_i128);
761
762         ifn!("llvm.ctlz.i8", fn(t_i8, i1) -> t_i8);
763         ifn!("llvm.ctlz.i16", fn(t_i16, i1) -> t_i16);
764         ifn!("llvm.ctlz.i32", fn(t_i32, i1) -> t_i32);
765         ifn!("llvm.ctlz.i64", fn(t_i64, i1) -> t_i64);
766         ifn!("llvm.ctlz.i128", fn(t_i128, i1) -> t_i128);
767
768         ifn!("llvm.cttz.i8", fn(t_i8, i1) -> t_i8);
769         ifn!("llvm.cttz.i16", fn(t_i16, i1) -> t_i16);
770         ifn!("llvm.cttz.i32", fn(t_i32, i1) -> t_i32);
771         ifn!("llvm.cttz.i64", fn(t_i64, i1) -> t_i64);
772         ifn!("llvm.cttz.i128", fn(t_i128, i1) -> t_i128);
773
774         ifn!("llvm.bswap.i16", fn(t_i16) -> t_i16);
775         ifn!("llvm.bswap.i32", fn(t_i32) -> t_i32);
776         ifn!("llvm.bswap.i64", fn(t_i64) -> t_i64);
777         ifn!("llvm.bswap.i128", fn(t_i128) -> t_i128);
778
779         ifn!("llvm.bitreverse.i8", fn(t_i8) -> t_i8);
780         ifn!("llvm.bitreverse.i16", fn(t_i16) -> t_i16);
781         ifn!("llvm.bitreverse.i32", fn(t_i32) -> t_i32);
782         ifn!("llvm.bitreverse.i64", fn(t_i64) -> t_i64);
783         ifn!("llvm.bitreverse.i128", fn(t_i128) -> t_i128);
784
785         ifn!("llvm.fshl.i8", fn(t_i8, t_i8, t_i8) -> t_i8);
786         ifn!("llvm.fshl.i16", fn(t_i16, t_i16, t_i16) -> t_i16);
787         ifn!("llvm.fshl.i32", fn(t_i32, t_i32, t_i32) -> t_i32);
788         ifn!("llvm.fshl.i64", fn(t_i64, t_i64, t_i64) -> t_i64);
789         ifn!("llvm.fshl.i128", fn(t_i128, t_i128, t_i128) -> t_i128);
790
791         ifn!("llvm.fshr.i8", fn(t_i8, t_i8, t_i8) -> t_i8);
792         ifn!("llvm.fshr.i16", fn(t_i16, t_i16, t_i16) -> t_i16);
793         ifn!("llvm.fshr.i32", fn(t_i32, t_i32, t_i32) -> t_i32);
794         ifn!("llvm.fshr.i64", fn(t_i64, t_i64, t_i64) -> t_i64);
795         ifn!("llvm.fshr.i128", fn(t_i128, t_i128, t_i128) -> t_i128);
796
797         ifn!("llvm.sadd.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
798         ifn!("llvm.sadd.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
799         ifn!("llvm.sadd.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
800         ifn!("llvm.sadd.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
801         ifn!("llvm.sadd.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
802
803         ifn!("llvm.uadd.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
804         ifn!("llvm.uadd.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
805         ifn!("llvm.uadd.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
806         ifn!("llvm.uadd.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
807         ifn!("llvm.uadd.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
808
809         ifn!("llvm.ssub.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
810         ifn!("llvm.ssub.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
811         ifn!("llvm.ssub.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
812         ifn!("llvm.ssub.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
813         ifn!("llvm.ssub.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
814
815         ifn!("llvm.usub.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
816         ifn!("llvm.usub.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
817         ifn!("llvm.usub.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
818         ifn!("llvm.usub.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
819         ifn!("llvm.usub.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
820
821         ifn!("llvm.smul.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
822         ifn!("llvm.smul.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
823         ifn!("llvm.smul.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
824         ifn!("llvm.smul.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
825         ifn!("llvm.smul.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
826
827         ifn!("llvm.umul.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
828         ifn!("llvm.umul.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
829         ifn!("llvm.umul.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
830         ifn!("llvm.umul.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
831         ifn!("llvm.umul.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
832
833         ifn!("llvm.sadd.sat.i8", fn(t_i8, t_i8) -> t_i8);
834         ifn!("llvm.sadd.sat.i16", fn(t_i16, t_i16) -> t_i16);
835         ifn!("llvm.sadd.sat.i32", fn(t_i32, t_i32) -> t_i32);
836         ifn!("llvm.sadd.sat.i64", fn(t_i64, t_i64) -> t_i64);
837         ifn!("llvm.sadd.sat.i128", fn(t_i128, t_i128) -> t_i128);
838
839         ifn!("llvm.uadd.sat.i8", fn(t_i8, t_i8) -> t_i8);
840         ifn!("llvm.uadd.sat.i16", fn(t_i16, t_i16) -> t_i16);
841         ifn!("llvm.uadd.sat.i32", fn(t_i32, t_i32) -> t_i32);
842         ifn!("llvm.uadd.sat.i64", fn(t_i64, t_i64) -> t_i64);
843         ifn!("llvm.uadd.sat.i128", fn(t_i128, t_i128) -> t_i128);
844
845         ifn!("llvm.ssub.sat.i8", fn(t_i8, t_i8) -> t_i8);
846         ifn!("llvm.ssub.sat.i16", fn(t_i16, t_i16) -> t_i16);
847         ifn!("llvm.ssub.sat.i32", fn(t_i32, t_i32) -> t_i32);
848         ifn!("llvm.ssub.sat.i64", fn(t_i64, t_i64) -> t_i64);
849         ifn!("llvm.ssub.sat.i128", fn(t_i128, t_i128) -> t_i128);
850
851         ifn!("llvm.usub.sat.i8", fn(t_i8, t_i8) -> t_i8);
852         ifn!("llvm.usub.sat.i16", fn(t_i16, t_i16) -> t_i16);
853         ifn!("llvm.usub.sat.i32", fn(t_i32, t_i32) -> t_i32);
854         ifn!("llvm.usub.sat.i64", fn(t_i64, t_i64) -> t_i64);
855         ifn!("llvm.usub.sat.i128", fn(t_i128, t_i128) -> t_i128);
856
857         ifn!("llvm.lifetime.start.p0i8", fn(t_i64, i8p) -> void);
858         ifn!("llvm.lifetime.end.p0i8", fn(t_i64, i8p) -> void);
859
860         ifn!("llvm.expect.i1", fn(i1, i1) -> i1);
861         ifn!("llvm.eh.typeid.for", fn(i8p) -> t_i32);
862         ifn!("llvm.localescape", fn(...) -> void);
863         ifn!("llvm.localrecover", fn(i8p, i8p, t_i32) -> i8p);
864         ifn!("llvm.x86.seh.recoverfp", fn(i8p, i8p) -> i8p);
865
866         ifn!("llvm.assume", fn(i1) -> void);
867         ifn!("llvm.prefetch", fn(i8p, t_i32, t_i32, t_i32) -> void);
868
869         // This isn't an "LLVM intrinsic", but LLVM's optimization passes
870         // recognize it like one and we assume it exists in `core::slice::cmp`
871         match self.sess().target.arch.as_ref() {
872             "avr" | "msp430" => ifn!("memcmp", fn(i8p, i8p, t_isize) -> t_i16),
873             _ => ifn!("memcmp", fn(i8p, i8p, t_isize) -> t_i32),
874         }
875
876         // variadic intrinsics
877         ifn!("llvm.va_start", fn(i8p) -> void);
878         ifn!("llvm.va_end", fn(i8p) -> void);
879         ifn!("llvm.va_copy", fn(i8p, i8p) -> void);
880
881         if self.sess().instrument_coverage() {
882             ifn!("llvm.instrprof.increment", fn(i8p, t_i64, t_i32, t_i32) -> void);
883         }
884
885         ifn!("llvm.type.test", fn(i8p, t_metadata) -> i1);
886         ifn!("llvm.type.checked.load", fn(i8p, t_i32, t_metadata) -> mk_struct! {i8p, i1});
887
888         if self.sess().opts.debuginfo != DebugInfo::None {
889             ifn!("llvm.dbg.declare", fn(t_metadata, t_metadata) -> void);
890             ifn!("llvm.dbg.value", fn(t_metadata, t_i64, t_metadata) -> void);
891         }
892
893         ifn!("llvm.ptrmask", fn(i8p, t_isize) -> i8p);
894
895         None
896     }
897
898     pub(crate) fn eh_catch_typeinfo(&self) -> &'ll Value {
899         if let Some(eh_catch_typeinfo) = self.eh_catch_typeinfo.get() {
900             return eh_catch_typeinfo;
901         }
902         let tcx = self.tcx;
903         assert!(self.sess().target.os == "emscripten");
904         let eh_catch_typeinfo = match tcx.lang_items().eh_catch_typeinfo() {
905             Some(def_id) => self.get_static(def_id),
906             _ => {
907                 let ty = self
908                     .type_struct(&[self.type_ptr_to(self.type_isize()), self.type_i8p()], false);
909                 self.declare_global("rust_eh_catch_typeinfo", ty)
910             }
911         };
912         let eh_catch_typeinfo = self.const_bitcast(eh_catch_typeinfo, self.type_i8p());
913         self.eh_catch_typeinfo.set(Some(eh_catch_typeinfo));
914         eh_catch_typeinfo
915     }
916 }
917
918 impl CodegenCx<'_, '_> {
919     /// Generates a new symbol name with the given prefix. This symbol name must
920     /// only be used for definitions with `internal` or `private` linkage.
921     pub fn generate_local_symbol_name(&self, prefix: &str) -> String {
922         let idx = self.local_gen_sym_counter.get();
923         self.local_gen_sym_counter.set(idx + 1);
924         // Include a '.' character, so there can be no accidental conflicts with
925         // user defined names
926         let mut name = String::with_capacity(prefix.len() + 6);
927         name.push_str(prefix);
928         name.push('.');
929         base_n::push_str(idx as u128, base_n::ALPHANUMERIC_ONLY, &mut name);
930         name
931     }
932 }
933
934 impl HasDataLayout for CodegenCx<'_, '_> {
935     #[inline]
936     fn data_layout(&self) -> &TargetDataLayout {
937         &self.tcx.data_layout
938     }
939 }
940
941 impl HasTargetSpec for CodegenCx<'_, '_> {
942     #[inline]
943     fn target_spec(&self) -> &Target {
944         &self.tcx.sess.target
945     }
946 }
947
948 impl<'tcx> ty::layout::HasTyCtxt<'tcx> for CodegenCx<'_, 'tcx> {
949     #[inline]
950     fn tcx(&self) -> TyCtxt<'tcx> {
951         self.tcx
952     }
953 }
954
955 impl<'tcx, 'll> HasParamEnv<'tcx> for CodegenCx<'ll, 'tcx> {
956     fn param_env(&self) -> ty::ParamEnv<'tcx> {
957         ty::ParamEnv::reveal_all()
958     }
959 }
960
961 impl<'tcx> LayoutOfHelpers<'tcx> for CodegenCx<'_, 'tcx> {
962     type LayoutOfResult = TyAndLayout<'tcx>;
963
964     #[inline]
965     fn handle_layout_err(&self, err: LayoutError<'tcx>, span: Span, ty: Ty<'tcx>) -> ! {
966         if let LayoutError::SizeOverflow(_) = err {
967             self.sess().emit_fatal(Spanned { span, node: err })
968         } else {
969             span_bug!(span, "failed to get layout for `{}`: {}", ty, err)
970         }
971     }
972 }
973
974 impl<'tcx> FnAbiOfHelpers<'tcx> for CodegenCx<'_, 'tcx> {
975     type FnAbiOfResult = &'tcx FnAbi<'tcx, Ty<'tcx>>;
976
977     #[inline]
978     fn handle_fn_abi_err(
979         &self,
980         err: FnAbiError<'tcx>,
981         span: Span,
982         fn_abi_request: FnAbiRequest<'tcx>,
983     ) -> ! {
984         if let FnAbiError::Layout(LayoutError::SizeOverflow(_)) = err {
985             self.sess().emit_fatal(Spanned { span, node: err })
986         } else {
987             match fn_abi_request {
988                 FnAbiRequest::OfFnPtr { sig, extra_args } => {
989                     span_bug!(
990                         span,
991                         "`fn_abi_of_fn_ptr({}, {:?})` failed: {}",
992                         sig,
993                         extra_args,
994                         err
995                     );
996                 }
997                 FnAbiRequest::OfInstance { instance, extra_args } => {
998                     span_bug!(
999                         span,
1000                         "`fn_abi_of_instance({}, {:?})` failed: {}",
1001                         instance,
1002                         extra_args,
1003                         err
1004                     );
1005                 }
1006             }
1007         }
1008     }
1009 }