]> git.lizzy.rs Git - rust.git/blob - compiler/rustc_codegen_llvm/src/context.rs
Add codegen option for branch protection and pointer authentication on AArch64
[rust.git] / compiler / rustc_codegen_llvm / src / context.rs
1 use crate::attributes;
2 use crate::back::write::to_llvm_code_model;
3 use crate::callee::get_fn;
4 use crate::coverageinfo;
5 use crate::debuginfo;
6 use crate::llvm;
7 use crate::llvm_util;
8 use crate::type_::Type;
9 use crate::value::Value;
10
11 use cstr::cstr;
12 use rustc_codegen_ssa::base::wants_msvc_seh;
13 use rustc_codegen_ssa::traits::*;
14 use rustc_data_structures::base_n;
15 use rustc_data_structures::fx::FxHashMap;
16 use rustc_data_structures::small_c_str::SmallCStr;
17 use rustc_middle::mir::mono::CodegenUnit;
18 use rustc_middle::ty::layout::{
19     FnAbiError, FnAbiOfHelpers, FnAbiRequest, HasParamEnv, LayoutError, LayoutOfHelpers,
20     TyAndLayout,
21 };
22 use rustc_middle::ty::{self, Instance, Ty, TyCtxt};
23 use rustc_middle::{bug, span_bug};
24 use rustc_session::config::{BranchProtection, CFGuard, CrateType, DebugInfo, PAuthKey};
25 use rustc_session::Session;
26 use rustc_span::source_map::Span;
27 use rustc_span::symbol::Symbol;
28 use rustc_target::abi::{
29     call::FnAbi, HasDataLayout, PointeeInfo, Size, TargetDataLayout, VariantIdx,
30 };
31 use rustc_target::spec::{HasTargetSpec, RelocModel, Target, TlsModel};
32 use smallvec::SmallVec;
33
34 use std::cell::{Cell, RefCell};
35 use std::ffi::CStr;
36 use std::str;
37
38 /// There is one `CodegenCx` per compilation unit. Each one has its own LLVM
39 /// `llvm::Context` so that several compilation units may be optimized in parallel.
40 /// All other LLVM data structures in the `CodegenCx` are tied to that `llvm::Context`.
41 pub struct CodegenCx<'ll, 'tcx> {
42     pub tcx: TyCtxt<'tcx>,
43     pub check_overflow: bool,
44     pub use_dll_storage_attrs: bool,
45     pub tls_model: llvm::ThreadLocalMode,
46
47     pub llmod: &'ll llvm::Module,
48     pub llcx: &'ll llvm::Context,
49     pub codegen_unit: &'tcx CodegenUnit<'tcx>,
50
51     /// Cache instances of monomorphic and polymorphic items
52     pub instances: RefCell<FxHashMap<Instance<'tcx>, &'ll Value>>,
53     /// Cache generated vtables
54     pub vtables:
55         RefCell<FxHashMap<(Ty<'tcx>, Option<ty::PolyExistentialTraitRef<'tcx>>), &'ll Value>>,
56     /// Cache of constant strings,
57     pub const_cstr_cache: RefCell<FxHashMap<Symbol, &'ll Value>>,
58
59     /// Reverse-direction for const ptrs cast from globals.
60     ///
61     /// Key is a Value holding a `*T`,
62     /// Val is a Value holding a `*[T]`.
63     ///
64     /// Needed because LLVM loses pointer->pointee association
65     /// when we ptrcast, and we have to ptrcast during codegen
66     /// of a `[T]` const because we form a slice, a `(*T,usize)` pair, not
67     /// a pointer to an LLVM array type. Similar for trait objects.
68     pub const_unsized: RefCell<FxHashMap<&'ll Value, &'ll Value>>,
69
70     /// Cache of emitted const globals (value -> global)
71     pub const_globals: RefCell<FxHashMap<&'ll Value, &'ll Value>>,
72
73     /// List of globals for static variables which need to be passed to the
74     /// LLVM function ReplaceAllUsesWith (RAUW) when codegen is complete.
75     /// (We have to make sure we don't invalidate any Values referring
76     /// to constants.)
77     pub statics_to_rauw: RefCell<Vec<(&'ll Value, &'ll Value)>>,
78
79     /// Statics that will be placed in the llvm.used variable
80     /// See <https://llvm.org/docs/LangRef.html#the-llvm-used-global-variable> for details
81     pub used_statics: RefCell<Vec<&'ll Value>>,
82
83     /// Statics that will be placed in the llvm.compiler.used variable
84     /// See <https://llvm.org/docs/LangRef.html#the-llvm-compiler-used-global-variable> for details
85     pub compiler_used_statics: RefCell<Vec<&'ll Value>>,
86
87     /// Mapping of non-scalar types to llvm types and field remapping if needed.
88     pub type_lowering: RefCell<FxHashMap<(Ty<'tcx>, Option<VariantIdx>), TypeLowering<'ll>>>,
89
90     /// Mapping of scalar types to llvm types.
91     pub scalar_lltypes: RefCell<FxHashMap<Ty<'tcx>, &'ll Type>>,
92
93     pub pointee_infos: RefCell<FxHashMap<(Ty<'tcx>, Size), Option<PointeeInfo>>>,
94     pub isize_ty: &'ll Type,
95
96     pub coverage_cx: Option<coverageinfo::CrateCoverageContext<'ll, 'tcx>>,
97     pub dbg_cx: Option<debuginfo::CrateDebugContext<'ll, 'tcx>>,
98
99     eh_personality: Cell<Option<&'ll Value>>,
100     eh_catch_typeinfo: Cell<Option<&'ll Value>>,
101     pub rust_try_fn: Cell<Option<(&'ll Type, &'ll Value)>>,
102
103     intrinsics: RefCell<FxHashMap<&'static str, (&'ll Type, &'ll Value)>>,
104
105     /// A counter that is used for generating local symbol names
106     local_gen_sym_counter: Cell<usize>,
107 }
108
109 pub struct TypeLowering<'ll> {
110     /// Associated LLVM type
111     pub lltype: &'ll Type,
112
113     /// If padding is used the slice maps fields from source order
114     /// to llvm order.
115     pub field_remapping: Option<SmallVec<[u32; 4]>>,
116 }
117
118 fn to_llvm_tls_model(tls_model: TlsModel) -> llvm::ThreadLocalMode {
119     match tls_model {
120         TlsModel::GeneralDynamic => llvm::ThreadLocalMode::GeneralDynamic,
121         TlsModel::LocalDynamic => llvm::ThreadLocalMode::LocalDynamic,
122         TlsModel::InitialExec => llvm::ThreadLocalMode::InitialExec,
123         TlsModel::LocalExec => llvm::ThreadLocalMode::LocalExec,
124     }
125 }
126
127 pub unsafe fn create_module(
128     tcx: TyCtxt<'_>,
129     llcx: &'ll llvm::Context,
130     mod_name: &str,
131 ) -> &'ll llvm::Module {
132     let sess = tcx.sess;
133     let mod_name = SmallCStr::new(mod_name);
134     let llmod = llvm::LLVMModuleCreateWithNameInContext(mod_name.as_ptr(), llcx);
135
136     let mut target_data_layout = sess.target.data_layout.clone();
137     if llvm_util::get_version() < (13, 0, 0) {
138         if sess.target.arch == "powerpc64" {
139             target_data_layout = target_data_layout.replace("-S128", "");
140         }
141         if sess.target.arch == "wasm32" {
142             target_data_layout = "e-m:e-p:32:32-i64:64-n32:64-S128".to_string();
143         }
144         if sess.target.arch == "wasm64" {
145             target_data_layout = "e-m:e-p:64:64-i64:64-n32:64-S128".to_string();
146         }
147     }
148
149     // Ensure the data-layout values hardcoded remain the defaults.
150     if sess.target.is_builtin {
151         let tm = crate::back::write::create_informational_target_machine(tcx.sess);
152         llvm::LLVMRustSetDataLayoutFromTargetMachine(llmod, tm);
153         llvm::LLVMRustDisposeTargetMachine(tm);
154
155         let llvm_data_layout = llvm::LLVMGetDataLayoutStr(llmod);
156         let llvm_data_layout = str::from_utf8(CStr::from_ptr(llvm_data_layout).to_bytes())
157             .expect("got a non-UTF8 data-layout from LLVM");
158
159         // Unfortunately LLVM target specs change over time, and right now we
160         // don't have proper support to work with any more than one
161         // `data_layout` than the one that is in the rust-lang/rust repo. If
162         // this compiler is configured against a custom LLVM, we may have a
163         // differing data layout, even though we should update our own to use
164         // that one.
165         //
166         // As an interim hack, if CFG_LLVM_ROOT is not an empty string then we
167         // disable this check entirely as we may be configured with something
168         // that has a different target layout.
169         //
170         // Unsure if this will actually cause breakage when rustc is configured
171         // as such.
172         //
173         // FIXME(#34960)
174         let cfg_llvm_root = option_env!("CFG_LLVM_ROOT").unwrap_or("");
175         let custom_llvm_used = cfg_llvm_root.trim() != "";
176
177         if !custom_llvm_used && target_data_layout != llvm_data_layout {
178             bug!(
179                 "data-layout for target `{rustc_target}`, `{rustc_layout}`, \
180                   differs from LLVM target's `{llvm_target}` default layout, `{llvm_layout}`",
181                 rustc_target = sess.opts.target_triple,
182                 rustc_layout = target_data_layout,
183                 llvm_target = sess.target.llvm_target,
184                 llvm_layout = llvm_data_layout
185             );
186         }
187     }
188
189     let data_layout = SmallCStr::new(&target_data_layout);
190     llvm::LLVMSetDataLayout(llmod, data_layout.as_ptr());
191
192     let llvm_target = SmallCStr::new(&sess.target.llvm_target);
193     llvm::LLVMRustSetNormalizedTarget(llmod, llvm_target.as_ptr());
194
195     let reloc_model = sess.relocation_model();
196     if matches!(reloc_model, RelocModel::Pic | RelocModel::Pie) {
197         llvm::LLVMRustSetModulePICLevel(llmod);
198         // PIE is potentially more effective than PIC, but can only be used in executables.
199         // If all our outputs are executables, then we can relax PIC to PIE.
200         if reloc_model == RelocModel::Pie
201             || sess.crate_types().iter().all(|ty| *ty == CrateType::Executable)
202         {
203             llvm::LLVMRustSetModulePIELevel(llmod);
204         }
205     }
206
207     // Linking object files with different code models is undefined behavior
208     // because the compiler would have to generate additional code (to span
209     // longer jumps) if a larger code model is used with a smaller one.
210     //
211     // See https://reviews.llvm.org/D52322 and https://reviews.llvm.org/D52323.
212     llvm::LLVMRustSetModuleCodeModel(llmod, to_llvm_code_model(sess.code_model()));
213
214     // If skipping the PLT is enabled, we need to add some module metadata
215     // to ensure intrinsic calls don't use it.
216     if !sess.needs_plt() {
217         let avoid_plt = "RtLibUseGOT\0".as_ptr().cast();
218         llvm::LLVMRustAddModuleFlag(llmod, avoid_plt, 1);
219     }
220
221     if sess.is_sanitizer_cfi_enabled() {
222         // FIXME(rcvalle): Add support for non canonical jump tables.
223         let canonical_jump_tables = "CFI Canonical Jump Tables\0".as_ptr().cast();
224         // FIXME(rcvalle): Add it with Override behavior flag--LLVMRustAddModuleFlag adds it with
225         // Warning behavior flag. Add support for specifying the behavior flag to
226         // LLVMRustAddModuleFlag.
227         llvm::LLVMRustAddModuleFlag(llmod, canonical_jump_tables, 1);
228     }
229
230     // Control Flow Guard is currently only supported by the MSVC linker on Windows.
231     if sess.target.is_like_msvc {
232         match sess.opts.cg.control_flow_guard {
233             CFGuard::Disabled => {}
234             CFGuard::NoChecks => {
235                 // Set `cfguard=1` module flag to emit metadata only.
236                 llvm::LLVMRustAddModuleFlag(llmod, "cfguard\0".as_ptr() as *const _, 1)
237             }
238             CFGuard::Checks => {
239                 // Set `cfguard=2` module flag to emit metadata and checks.
240                 llvm::LLVMRustAddModuleFlag(llmod, "cfguard\0".as_ptr() as *const _, 2)
241             }
242         }
243     }
244
245     if sess.target.arch == "aarch64" {
246         let BranchProtection { bti, pac_ret: pac } = sess.opts.cg.branch_protection;
247
248         llvm::LLVMRustAddModuleFlag(
249             llmod,
250             "branch-target-enforcement\0".as_ptr().cast(),
251             bti.into(),
252         );
253
254         if let Some(pac_opts) = pac {
255             llvm::LLVMRustAddModuleFlag(llmod, "sign-return-address\0".as_ptr().cast(), 1);
256             llvm::LLVMRustAddModuleFlag(
257                 llmod,
258                 "sign-return-address-all\0".as_ptr().cast(),
259                 pac_opts.leaf.into(),
260             );
261             llvm::LLVMRustAddModuleFlag(
262                 llmod,
263                 "sign-return-address-with-bkey\0".as_ptr().cast(),
264                 if pac_opts.key == PAuthKey::A { 0 } else { 1 },
265             );
266         } else {
267             llvm::LLVMRustAddModuleFlag(llmod, "sign-return-address\0".as_ptr().cast(), 0);
268             llvm::LLVMRustAddModuleFlag(llmod, "sign-return-address-all\0".as_ptr().cast(), 0);
269             llvm::LLVMRustAddModuleFlag(
270                 llmod,
271                 "sign-return-address-with-bkey\0".as_ptr().cast(),
272                 0,
273             );
274         }
275     }
276
277     llmod
278 }
279
280 impl<'ll, 'tcx> CodegenCx<'ll, 'tcx> {
281     crate fn new(
282         tcx: TyCtxt<'tcx>,
283         codegen_unit: &'tcx CodegenUnit<'tcx>,
284         llvm_module: &'ll crate::ModuleLlvm,
285     ) -> Self {
286         // An interesting part of Windows which MSVC forces our hand on (and
287         // apparently MinGW didn't) is the usage of `dllimport` and `dllexport`
288         // attributes in LLVM IR as well as native dependencies (in C these
289         // correspond to `__declspec(dllimport)`).
290         //
291         // LD (BFD) in MinGW mode can often correctly guess `dllexport` but
292         // relying on that can result in issues like #50176.
293         // LLD won't support that and expects symbols with proper attributes.
294         // Because of that we make MinGW target emit dllexport just like MSVC.
295         // When it comes to dllimport we use it for constants but for functions
296         // rely on the linker to do the right thing. Opposed to dllexport this
297         // task is easy for them (both LD and LLD) and allows us to easily use
298         // symbols from static libraries in shared libraries.
299         //
300         // Whenever a dynamic library is built on Windows it must have its public
301         // interface specified by functions tagged with `dllexport` or otherwise
302         // they're not available to be linked against. This poses a few problems
303         // for the compiler, some of which are somewhat fundamental, but we use
304         // the `use_dll_storage_attrs` variable below to attach the `dllexport`
305         // attribute to all LLVM functions that are exported e.g., they're
306         // already tagged with external linkage). This is suboptimal for a few
307         // reasons:
308         //
309         // * If an object file will never be included in a dynamic library,
310         //   there's no need to attach the dllexport attribute. Most object
311         //   files in Rust are not destined to become part of a dll as binaries
312         //   are statically linked by default.
313         // * If the compiler is emitting both an rlib and a dylib, the same
314         //   source object file is currently used but with MSVC this may be less
315         //   feasible. The compiler may be able to get around this, but it may
316         //   involve some invasive changes to deal with this.
317         //
318         // The flipside of this situation is that whenever you link to a dll and
319         // you import a function from it, the import should be tagged with
320         // `dllimport`. At this time, however, the compiler does not emit
321         // `dllimport` for any declarations other than constants (where it is
322         // required), which is again suboptimal for even more reasons!
323         //
324         // * Calling a function imported from another dll without using
325         //   `dllimport` causes the linker/compiler to have extra overhead (one
326         //   `jmp` instruction on x86) when calling the function.
327         // * The same object file may be used in different circumstances, so a
328         //   function may be imported from a dll if the object is linked into a
329         //   dll, but it may be just linked against if linked into an rlib.
330         // * The compiler has no knowledge about whether native functions should
331         //   be tagged dllimport or not.
332         //
333         // For now the compiler takes the perf hit (I do not have any numbers to
334         // this effect) by marking very little as `dllimport` and praying the
335         // linker will take care of everything. Fixing this problem will likely
336         // require adding a few attributes to Rust itself (feature gated at the
337         // start) and then strongly recommending static linkage on Windows!
338         let use_dll_storage_attrs = tcx.sess.target.is_like_windows;
339
340         let check_overflow = tcx.sess.overflow_checks();
341
342         let tls_model = to_llvm_tls_model(tcx.sess.tls_model());
343
344         let (llcx, llmod) = (&*llvm_module.llcx, llvm_module.llmod());
345
346         let coverage_cx = if tcx.sess.instrument_coverage() {
347             let covctx = coverageinfo::CrateCoverageContext::new();
348             Some(covctx)
349         } else {
350             None
351         };
352
353         let dbg_cx = if tcx.sess.opts.debuginfo != DebugInfo::None {
354             let dctx = debuginfo::CrateDebugContext::new(llmod);
355             debuginfo::metadata::compile_unit_metadata(tcx, &codegen_unit.name().as_str(), &dctx);
356             Some(dctx)
357         } else {
358             None
359         };
360
361         let isize_ty = Type::ix_llcx(llcx, tcx.data_layout.pointer_size.bits());
362
363         CodegenCx {
364             tcx,
365             check_overflow,
366             use_dll_storage_attrs,
367             tls_model,
368             llmod,
369             llcx,
370             codegen_unit,
371             instances: Default::default(),
372             vtables: Default::default(),
373             const_cstr_cache: Default::default(),
374             const_unsized: Default::default(),
375             const_globals: Default::default(),
376             statics_to_rauw: RefCell::new(Vec::new()),
377             used_statics: RefCell::new(Vec::new()),
378             compiler_used_statics: RefCell::new(Vec::new()),
379             type_lowering: Default::default(),
380             scalar_lltypes: Default::default(),
381             pointee_infos: Default::default(),
382             isize_ty,
383             coverage_cx,
384             dbg_cx,
385             eh_personality: Cell::new(None),
386             eh_catch_typeinfo: Cell::new(None),
387             rust_try_fn: Cell::new(None),
388             intrinsics: Default::default(),
389             local_gen_sym_counter: Cell::new(0),
390         }
391     }
392
393     crate fn statics_to_rauw(&self) -> &RefCell<Vec<(&'ll Value, &'ll Value)>> {
394         &self.statics_to_rauw
395     }
396
397     #[inline]
398     pub fn coverage_context(&'a self) -> Option<&'a coverageinfo::CrateCoverageContext<'ll, 'tcx>> {
399         self.coverage_cx.as_ref()
400     }
401
402     fn create_used_variable_impl(&self, name: &'static CStr, values: &[&'ll Value]) {
403         let section = cstr!("llvm.metadata");
404         let array = self.const_array(self.type_ptr_to(self.type_i8()), values);
405
406         unsafe {
407             let g = llvm::LLVMAddGlobal(self.llmod, self.val_ty(array), name.as_ptr());
408             llvm::LLVMSetInitializer(g, array);
409             llvm::LLVMRustSetLinkage(g, llvm::Linkage::AppendingLinkage);
410             llvm::LLVMSetSection(g, section.as_ptr());
411         }
412     }
413 }
414
415 impl MiscMethods<'tcx> for CodegenCx<'ll, 'tcx> {
416     fn vtables(
417         &self,
418     ) -> &RefCell<FxHashMap<(Ty<'tcx>, Option<ty::PolyExistentialTraitRef<'tcx>>), &'ll Value>>
419     {
420         &self.vtables
421     }
422
423     fn get_fn(&self, instance: Instance<'tcx>) -> &'ll Value {
424         get_fn(self, instance)
425     }
426
427     fn get_fn_addr(&self, instance: Instance<'tcx>) -> &'ll Value {
428         get_fn(self, instance)
429     }
430
431     fn eh_personality(&self) -> &'ll Value {
432         // The exception handling personality function.
433         //
434         // If our compilation unit has the `eh_personality` lang item somewhere
435         // within it, then we just need to codegen that. Otherwise, we're
436         // building an rlib which will depend on some upstream implementation of
437         // this function, so we just codegen a generic reference to it. We don't
438         // specify any of the types for the function, we just make it a symbol
439         // that LLVM can later use.
440         //
441         // Note that MSVC is a little special here in that we don't use the
442         // `eh_personality` lang item at all. Currently LLVM has support for
443         // both Dwarf and SEH unwind mechanisms for MSVC targets and uses the
444         // *name of the personality function* to decide what kind of unwind side
445         // tables/landing pads to emit. It looks like Dwarf is used by default,
446         // injecting a dependency on the `_Unwind_Resume` symbol for resuming
447         // an "exception", but for MSVC we want to force SEH. This means that we
448         // can't actually have the personality function be our standard
449         // `rust_eh_personality` function, but rather we wired it up to the
450         // CRT's custom personality function, which forces LLVM to consider
451         // landing pads as "landing pads for SEH".
452         if let Some(llpersonality) = self.eh_personality.get() {
453             return llpersonality;
454         }
455         let tcx = self.tcx;
456         let llfn = match tcx.lang_items().eh_personality() {
457             Some(def_id) if !wants_msvc_seh(self.sess()) => self.get_fn_addr(
458                 ty::Instance::resolve(
459                     tcx,
460                     ty::ParamEnv::reveal_all(),
461                     def_id,
462                     tcx.intern_substs(&[]),
463                 )
464                 .unwrap()
465                 .unwrap(),
466             ),
467             _ => {
468                 let name = if wants_msvc_seh(self.sess()) {
469                     "__CxxFrameHandler3"
470                 } else {
471                     "rust_eh_personality"
472                 };
473                 if let Some(llfn) = self.get_declared_value(name) {
474                     llfn
475                 } else {
476                     let fty = self.type_variadic_func(&[], self.type_i32());
477                     let llfn = self.declare_cfn(name, llvm::UnnamedAddr::Global, fty);
478                     attributes::apply_target_cpu_attr(self, llfn);
479                     llfn
480                 }
481             }
482         };
483         self.eh_personality.set(Some(llfn));
484         llfn
485     }
486
487     fn sess(&self) -> &Session {
488         self.tcx.sess
489     }
490
491     fn check_overflow(&self) -> bool {
492         self.check_overflow
493     }
494
495     fn codegen_unit(&self) -> &'tcx CodegenUnit<'tcx> {
496         self.codegen_unit
497     }
498
499     fn used_statics(&self) -> &RefCell<Vec<&'ll Value>> {
500         &self.used_statics
501     }
502
503     fn compiler_used_statics(&self) -> &RefCell<Vec<&'ll Value>> {
504         &self.compiler_used_statics
505     }
506
507     fn set_frame_pointer_type(&self, llfn: &'ll Value) {
508         attributes::set_frame_pointer_type(self, llfn)
509     }
510
511     fn apply_target_cpu_attr(&self, llfn: &'ll Value) {
512         attributes::apply_target_cpu_attr(self, llfn);
513         attributes::apply_tune_cpu_attr(self, llfn);
514     }
515
516     fn create_used_variable(&self) {
517         self.create_used_variable_impl(cstr!("llvm.used"), &*self.used_statics.borrow());
518     }
519
520     fn create_compiler_used_variable(&self) {
521         self.create_used_variable_impl(
522             cstr!("llvm.compiler.used"),
523             &*self.compiler_used_statics.borrow(),
524         );
525     }
526
527     fn declare_c_main(&self, fn_type: Self::Type) -> Option<Self::Function> {
528         if self.get_declared_value("main").is_none() {
529             Some(self.declare_cfn("main", llvm::UnnamedAddr::Global, fn_type))
530         } else {
531             // If the symbol already exists, it is an error: for example, the user wrote
532             // #[no_mangle] extern "C" fn main(..) {..}
533             // instead of #[start]
534             None
535         }
536     }
537 }
538
539 impl CodegenCx<'b, 'tcx> {
540     crate fn get_intrinsic(&self, key: &str) -> (&'b Type, &'b Value) {
541         if let Some(v) = self.intrinsics.borrow().get(key).cloned() {
542             return v;
543         }
544
545         self.declare_intrinsic(key).unwrap_or_else(|| bug!("unknown intrinsic '{}'", key))
546     }
547
548     fn insert_intrinsic(
549         &self,
550         name: &'static str,
551         args: Option<&[&'b llvm::Type]>,
552         ret: &'b llvm::Type,
553     ) -> (&'b llvm::Type, &'b llvm::Value) {
554         let fn_ty = if let Some(args) = args {
555             self.type_func(args, ret)
556         } else {
557             self.type_variadic_func(&[], ret)
558         };
559         let f = self.declare_cfn(name, llvm::UnnamedAddr::No, fn_ty);
560         self.intrinsics.borrow_mut().insert(name, (fn_ty, f));
561         (fn_ty, f)
562     }
563
564     fn declare_intrinsic(&self, key: &str) -> Option<(&'b Type, &'b Value)> {
565         macro_rules! ifn {
566             ($name:expr, fn() -> $ret:expr) => (
567                 if key == $name {
568                     return Some(self.insert_intrinsic($name, Some(&[]), $ret));
569                 }
570             );
571             ($name:expr, fn(...) -> $ret:expr) => (
572                 if key == $name {
573                     return Some(self.insert_intrinsic($name, None, $ret));
574                 }
575             );
576             ($name:expr, fn($($arg:expr),*) -> $ret:expr) => (
577                 if key == $name {
578                     return Some(self.insert_intrinsic($name, Some(&[$($arg),*]), $ret));
579                 }
580             );
581         }
582         macro_rules! mk_struct {
583             ($($field_ty:expr),*) => (self.type_struct( &[$($field_ty),*], false))
584         }
585
586         let i8p = self.type_i8p();
587         let void = self.type_void();
588         let i1 = self.type_i1();
589         let t_i8 = self.type_i8();
590         let t_i16 = self.type_i16();
591         let t_i32 = self.type_i32();
592         let t_i64 = self.type_i64();
593         let t_i128 = self.type_i128();
594         let t_isize = self.type_isize();
595         let t_f32 = self.type_f32();
596         let t_f64 = self.type_f64();
597
598         ifn!("llvm.wasm.trunc.unsigned.i32.f32", fn(t_f32) -> t_i32);
599         ifn!("llvm.wasm.trunc.unsigned.i32.f64", fn(t_f64) -> t_i32);
600         ifn!("llvm.wasm.trunc.unsigned.i64.f32", fn(t_f32) -> t_i64);
601         ifn!("llvm.wasm.trunc.unsigned.i64.f64", fn(t_f64) -> t_i64);
602         ifn!("llvm.wasm.trunc.signed.i32.f32", fn(t_f32) -> t_i32);
603         ifn!("llvm.wasm.trunc.signed.i32.f64", fn(t_f64) -> t_i32);
604         ifn!("llvm.wasm.trunc.signed.i64.f32", fn(t_f32) -> t_i64);
605         ifn!("llvm.wasm.trunc.signed.i64.f64", fn(t_f64) -> t_i64);
606
607         ifn!("llvm.fptosi.sat.i8.f32", fn(t_f32) -> t_i8);
608         ifn!("llvm.fptosi.sat.i16.f32", fn(t_f32) -> t_i16);
609         ifn!("llvm.fptosi.sat.i32.f32", fn(t_f32) -> t_i32);
610         ifn!("llvm.fptosi.sat.i64.f32", fn(t_f32) -> t_i64);
611         ifn!("llvm.fptosi.sat.i128.f32", fn(t_f32) -> t_i128);
612         ifn!("llvm.fptosi.sat.i8.f64", fn(t_f64) -> t_i8);
613         ifn!("llvm.fptosi.sat.i16.f64", fn(t_f64) -> t_i16);
614         ifn!("llvm.fptosi.sat.i32.f64", fn(t_f64) -> t_i32);
615         ifn!("llvm.fptosi.sat.i64.f64", fn(t_f64) -> t_i64);
616         ifn!("llvm.fptosi.sat.i128.f64", fn(t_f64) -> t_i128);
617
618         ifn!("llvm.fptoui.sat.i8.f32", fn(t_f32) -> t_i8);
619         ifn!("llvm.fptoui.sat.i16.f32", fn(t_f32) -> t_i16);
620         ifn!("llvm.fptoui.sat.i32.f32", fn(t_f32) -> t_i32);
621         ifn!("llvm.fptoui.sat.i64.f32", fn(t_f32) -> t_i64);
622         ifn!("llvm.fptoui.sat.i128.f32", fn(t_f32) -> t_i128);
623         ifn!("llvm.fptoui.sat.i8.f64", fn(t_f64) -> t_i8);
624         ifn!("llvm.fptoui.sat.i16.f64", fn(t_f64) -> t_i16);
625         ifn!("llvm.fptoui.sat.i32.f64", fn(t_f64) -> t_i32);
626         ifn!("llvm.fptoui.sat.i64.f64", fn(t_f64) -> t_i64);
627         ifn!("llvm.fptoui.sat.i128.f64", fn(t_f64) -> t_i128);
628
629         ifn!("llvm.trap", fn() -> void);
630         ifn!("llvm.debugtrap", fn() -> void);
631         ifn!("llvm.frameaddress", fn(t_i32) -> i8p);
632
633         ifn!("llvm.powi.f32", fn(t_f32, t_i32) -> t_f32);
634         ifn!("llvm.powi.f64", fn(t_f64, t_i32) -> t_f64);
635
636         ifn!("llvm.pow.f32", fn(t_f32, t_f32) -> t_f32);
637         ifn!("llvm.pow.f64", fn(t_f64, t_f64) -> t_f64);
638
639         ifn!("llvm.sqrt.f32", fn(t_f32) -> t_f32);
640         ifn!("llvm.sqrt.f64", fn(t_f64) -> t_f64);
641
642         ifn!("llvm.sin.f32", fn(t_f32) -> t_f32);
643         ifn!("llvm.sin.f64", fn(t_f64) -> t_f64);
644
645         ifn!("llvm.cos.f32", fn(t_f32) -> t_f32);
646         ifn!("llvm.cos.f64", fn(t_f64) -> t_f64);
647
648         ifn!("llvm.exp.f32", fn(t_f32) -> t_f32);
649         ifn!("llvm.exp.f64", fn(t_f64) -> t_f64);
650
651         ifn!("llvm.exp2.f32", fn(t_f32) -> t_f32);
652         ifn!("llvm.exp2.f64", fn(t_f64) -> t_f64);
653
654         ifn!("llvm.log.f32", fn(t_f32) -> t_f32);
655         ifn!("llvm.log.f64", fn(t_f64) -> t_f64);
656
657         ifn!("llvm.log10.f32", fn(t_f32) -> t_f32);
658         ifn!("llvm.log10.f64", fn(t_f64) -> t_f64);
659
660         ifn!("llvm.log2.f32", fn(t_f32) -> t_f32);
661         ifn!("llvm.log2.f64", fn(t_f64) -> t_f64);
662
663         ifn!("llvm.fma.f32", fn(t_f32, t_f32, t_f32) -> t_f32);
664         ifn!("llvm.fma.f64", fn(t_f64, t_f64, t_f64) -> t_f64);
665
666         ifn!("llvm.fabs.f32", fn(t_f32) -> t_f32);
667         ifn!("llvm.fabs.f64", fn(t_f64) -> t_f64);
668
669         ifn!("llvm.minnum.f32", fn(t_f32, t_f32) -> t_f32);
670         ifn!("llvm.minnum.f64", fn(t_f64, t_f64) -> t_f64);
671         ifn!("llvm.maxnum.f32", fn(t_f32, t_f32) -> t_f32);
672         ifn!("llvm.maxnum.f64", fn(t_f64, t_f64) -> t_f64);
673
674         ifn!("llvm.floor.f32", fn(t_f32) -> t_f32);
675         ifn!("llvm.floor.f64", fn(t_f64) -> t_f64);
676
677         ifn!("llvm.ceil.f32", fn(t_f32) -> t_f32);
678         ifn!("llvm.ceil.f64", fn(t_f64) -> t_f64);
679
680         ifn!("llvm.trunc.f32", fn(t_f32) -> t_f32);
681         ifn!("llvm.trunc.f64", fn(t_f64) -> t_f64);
682
683         ifn!("llvm.copysign.f32", fn(t_f32, t_f32) -> t_f32);
684         ifn!("llvm.copysign.f64", fn(t_f64, t_f64) -> t_f64);
685         ifn!("llvm.round.f32", fn(t_f32) -> t_f32);
686         ifn!("llvm.round.f64", fn(t_f64) -> t_f64);
687
688         ifn!("llvm.rint.f32", fn(t_f32) -> t_f32);
689         ifn!("llvm.rint.f64", fn(t_f64) -> t_f64);
690         ifn!("llvm.nearbyint.f32", fn(t_f32) -> t_f32);
691         ifn!("llvm.nearbyint.f64", fn(t_f64) -> t_f64);
692
693         ifn!("llvm.ctpop.i8", fn(t_i8) -> t_i8);
694         ifn!("llvm.ctpop.i16", fn(t_i16) -> t_i16);
695         ifn!("llvm.ctpop.i32", fn(t_i32) -> t_i32);
696         ifn!("llvm.ctpop.i64", fn(t_i64) -> t_i64);
697         ifn!("llvm.ctpop.i128", fn(t_i128) -> t_i128);
698
699         ifn!("llvm.ctlz.i8", fn(t_i8, i1) -> t_i8);
700         ifn!("llvm.ctlz.i16", fn(t_i16, i1) -> t_i16);
701         ifn!("llvm.ctlz.i32", fn(t_i32, i1) -> t_i32);
702         ifn!("llvm.ctlz.i64", fn(t_i64, i1) -> t_i64);
703         ifn!("llvm.ctlz.i128", fn(t_i128, i1) -> t_i128);
704
705         ifn!("llvm.cttz.i8", fn(t_i8, i1) -> t_i8);
706         ifn!("llvm.cttz.i16", fn(t_i16, i1) -> t_i16);
707         ifn!("llvm.cttz.i32", fn(t_i32, i1) -> t_i32);
708         ifn!("llvm.cttz.i64", fn(t_i64, i1) -> t_i64);
709         ifn!("llvm.cttz.i128", fn(t_i128, i1) -> t_i128);
710
711         ifn!("llvm.bswap.i16", fn(t_i16) -> t_i16);
712         ifn!("llvm.bswap.i32", fn(t_i32) -> t_i32);
713         ifn!("llvm.bswap.i64", fn(t_i64) -> t_i64);
714         ifn!("llvm.bswap.i128", fn(t_i128) -> t_i128);
715
716         ifn!("llvm.bitreverse.i8", fn(t_i8) -> t_i8);
717         ifn!("llvm.bitreverse.i16", fn(t_i16) -> t_i16);
718         ifn!("llvm.bitreverse.i32", fn(t_i32) -> t_i32);
719         ifn!("llvm.bitreverse.i64", fn(t_i64) -> t_i64);
720         ifn!("llvm.bitreverse.i128", fn(t_i128) -> t_i128);
721
722         ifn!("llvm.fshl.i8", fn(t_i8, t_i8, t_i8) -> t_i8);
723         ifn!("llvm.fshl.i16", fn(t_i16, t_i16, t_i16) -> t_i16);
724         ifn!("llvm.fshl.i32", fn(t_i32, t_i32, t_i32) -> t_i32);
725         ifn!("llvm.fshl.i64", fn(t_i64, t_i64, t_i64) -> t_i64);
726         ifn!("llvm.fshl.i128", fn(t_i128, t_i128, t_i128) -> t_i128);
727
728         ifn!("llvm.fshr.i8", fn(t_i8, t_i8, t_i8) -> t_i8);
729         ifn!("llvm.fshr.i16", fn(t_i16, t_i16, t_i16) -> t_i16);
730         ifn!("llvm.fshr.i32", fn(t_i32, t_i32, t_i32) -> t_i32);
731         ifn!("llvm.fshr.i64", fn(t_i64, t_i64, t_i64) -> t_i64);
732         ifn!("llvm.fshr.i128", fn(t_i128, t_i128, t_i128) -> t_i128);
733
734         ifn!("llvm.sadd.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
735         ifn!("llvm.sadd.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
736         ifn!("llvm.sadd.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
737         ifn!("llvm.sadd.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
738         ifn!("llvm.sadd.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
739
740         ifn!("llvm.uadd.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
741         ifn!("llvm.uadd.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
742         ifn!("llvm.uadd.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
743         ifn!("llvm.uadd.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
744         ifn!("llvm.uadd.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
745
746         ifn!("llvm.ssub.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
747         ifn!("llvm.ssub.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
748         ifn!("llvm.ssub.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
749         ifn!("llvm.ssub.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
750         ifn!("llvm.ssub.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
751
752         ifn!("llvm.usub.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
753         ifn!("llvm.usub.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
754         ifn!("llvm.usub.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
755         ifn!("llvm.usub.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
756         ifn!("llvm.usub.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
757
758         ifn!("llvm.smul.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
759         ifn!("llvm.smul.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
760         ifn!("llvm.smul.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
761         ifn!("llvm.smul.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
762         ifn!("llvm.smul.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
763
764         ifn!("llvm.umul.with.overflow.i8", fn(t_i8, t_i8) -> mk_struct! {t_i8, i1});
765         ifn!("llvm.umul.with.overflow.i16", fn(t_i16, t_i16) -> mk_struct! {t_i16, i1});
766         ifn!("llvm.umul.with.overflow.i32", fn(t_i32, t_i32) -> mk_struct! {t_i32, i1});
767         ifn!("llvm.umul.with.overflow.i64", fn(t_i64, t_i64) -> mk_struct! {t_i64, i1});
768         ifn!("llvm.umul.with.overflow.i128", fn(t_i128, t_i128) -> mk_struct! {t_i128, i1});
769
770         ifn!("llvm.sadd.sat.i8", fn(t_i8, t_i8) -> t_i8);
771         ifn!("llvm.sadd.sat.i16", fn(t_i16, t_i16) -> t_i16);
772         ifn!("llvm.sadd.sat.i32", fn(t_i32, t_i32) -> t_i32);
773         ifn!("llvm.sadd.sat.i64", fn(t_i64, t_i64) -> t_i64);
774         ifn!("llvm.sadd.sat.i128", fn(t_i128, t_i128) -> t_i128);
775
776         ifn!("llvm.uadd.sat.i8", fn(t_i8, t_i8) -> t_i8);
777         ifn!("llvm.uadd.sat.i16", fn(t_i16, t_i16) -> t_i16);
778         ifn!("llvm.uadd.sat.i32", fn(t_i32, t_i32) -> t_i32);
779         ifn!("llvm.uadd.sat.i64", fn(t_i64, t_i64) -> t_i64);
780         ifn!("llvm.uadd.sat.i128", fn(t_i128, t_i128) -> t_i128);
781
782         ifn!("llvm.ssub.sat.i8", fn(t_i8, t_i8) -> t_i8);
783         ifn!("llvm.ssub.sat.i16", fn(t_i16, t_i16) -> t_i16);
784         ifn!("llvm.ssub.sat.i32", fn(t_i32, t_i32) -> t_i32);
785         ifn!("llvm.ssub.sat.i64", fn(t_i64, t_i64) -> t_i64);
786         ifn!("llvm.ssub.sat.i128", fn(t_i128, t_i128) -> t_i128);
787
788         ifn!("llvm.usub.sat.i8", fn(t_i8, t_i8) -> t_i8);
789         ifn!("llvm.usub.sat.i16", fn(t_i16, t_i16) -> t_i16);
790         ifn!("llvm.usub.sat.i32", fn(t_i32, t_i32) -> t_i32);
791         ifn!("llvm.usub.sat.i64", fn(t_i64, t_i64) -> t_i64);
792         ifn!("llvm.usub.sat.i128", fn(t_i128, t_i128) -> t_i128);
793
794         ifn!("llvm.lifetime.start.p0i8", fn(t_i64, i8p) -> void);
795         ifn!("llvm.lifetime.end.p0i8", fn(t_i64, i8p) -> void);
796
797         ifn!("llvm.expect.i1", fn(i1, i1) -> i1);
798         ifn!("llvm.eh.typeid.for", fn(i8p) -> t_i32);
799         ifn!("llvm.localescape", fn(...) -> void);
800         ifn!("llvm.localrecover", fn(i8p, i8p, t_i32) -> i8p);
801         ifn!("llvm.x86.seh.recoverfp", fn(i8p, i8p) -> i8p);
802
803         ifn!("llvm.assume", fn(i1) -> void);
804         ifn!("llvm.prefetch", fn(i8p, t_i32, t_i32, t_i32) -> void);
805
806         // This isn't an "LLVM intrinsic", but LLVM's optimization passes
807         // recognize it like one and we assume it exists in `core::slice::cmp`
808         ifn!("memcmp", fn(i8p, i8p, t_isize) -> t_i32);
809
810         // variadic intrinsics
811         ifn!("llvm.va_start", fn(i8p) -> void);
812         ifn!("llvm.va_end", fn(i8p) -> void);
813         ifn!("llvm.va_copy", fn(i8p, i8p) -> void);
814
815         if self.sess().instrument_coverage() {
816             ifn!("llvm.instrprof.increment", fn(i8p, t_i64, t_i32, t_i32) -> void);
817         }
818
819         ifn!("llvm.type.test", fn(i8p, self.type_metadata()) -> i1);
820
821         if self.sess().opts.debuginfo != DebugInfo::None {
822             ifn!("llvm.dbg.declare", fn(self.type_metadata(), self.type_metadata()) -> void);
823             ifn!("llvm.dbg.value", fn(self.type_metadata(), t_i64, self.type_metadata()) -> void);
824         }
825         None
826     }
827
828     crate fn eh_catch_typeinfo(&self) -> &'b Value {
829         if let Some(eh_catch_typeinfo) = self.eh_catch_typeinfo.get() {
830             return eh_catch_typeinfo;
831         }
832         let tcx = self.tcx;
833         assert!(self.sess().target.is_like_emscripten);
834         let eh_catch_typeinfo = match tcx.lang_items().eh_catch_typeinfo() {
835             Some(def_id) => self.get_static(def_id),
836             _ => {
837                 let ty = self
838                     .type_struct(&[self.type_ptr_to(self.type_isize()), self.type_i8p()], false);
839                 self.declare_global("rust_eh_catch_typeinfo", ty)
840             }
841         };
842         let eh_catch_typeinfo = self.const_bitcast(eh_catch_typeinfo, self.type_i8p());
843         self.eh_catch_typeinfo.set(Some(eh_catch_typeinfo));
844         eh_catch_typeinfo
845     }
846 }
847
848 impl<'b, 'tcx> CodegenCx<'b, 'tcx> {
849     /// Generates a new symbol name with the given prefix. This symbol name must
850     /// only be used for definitions with `internal` or `private` linkage.
851     pub fn generate_local_symbol_name(&self, prefix: &str) -> String {
852         let idx = self.local_gen_sym_counter.get();
853         self.local_gen_sym_counter.set(idx + 1);
854         // Include a '.' character, so there can be no accidental conflicts with
855         // user defined names
856         let mut name = String::with_capacity(prefix.len() + 6);
857         name.push_str(prefix);
858         name.push('.');
859         base_n::push_str(idx as u128, base_n::ALPHANUMERIC_ONLY, &mut name);
860         name
861     }
862 }
863
864 impl HasDataLayout for CodegenCx<'ll, 'tcx> {
865     #[inline]
866     fn data_layout(&self) -> &TargetDataLayout {
867         &self.tcx.data_layout
868     }
869 }
870
871 impl HasTargetSpec for CodegenCx<'ll, 'tcx> {
872     #[inline]
873     fn target_spec(&self) -> &Target {
874         &self.tcx.sess.target
875     }
876 }
877
878 impl ty::layout::HasTyCtxt<'tcx> for CodegenCx<'ll, 'tcx> {
879     #[inline]
880     fn tcx(&self) -> TyCtxt<'tcx> {
881         self.tcx
882     }
883 }
884
885 impl<'tcx, 'll> HasParamEnv<'tcx> for CodegenCx<'ll, 'tcx> {
886     fn param_env(&self) -> ty::ParamEnv<'tcx> {
887         ty::ParamEnv::reveal_all()
888     }
889 }
890
891 impl LayoutOfHelpers<'tcx> for CodegenCx<'ll, 'tcx> {
892     type LayoutOfResult = TyAndLayout<'tcx>;
893
894     #[inline]
895     fn handle_layout_err(&self, err: LayoutError<'tcx>, span: Span, ty: Ty<'tcx>) -> ! {
896         if let LayoutError::SizeOverflow(_) = err {
897             self.sess().span_fatal(span, &err.to_string())
898         } else {
899             span_bug!(span, "failed to get layout for `{}`: {}", ty, err)
900         }
901     }
902 }
903
904 impl FnAbiOfHelpers<'tcx> for CodegenCx<'ll, 'tcx> {
905     type FnAbiOfResult = &'tcx FnAbi<'tcx, Ty<'tcx>>;
906
907     #[inline]
908     fn handle_fn_abi_err(
909         &self,
910         err: FnAbiError<'tcx>,
911         span: Span,
912         fn_abi_request: FnAbiRequest<'tcx>,
913     ) -> ! {
914         if let FnAbiError::Layout(LayoutError::SizeOverflow(_)) = err {
915             self.sess().span_fatal(span, &err.to_string())
916         } else {
917             match fn_abi_request {
918                 FnAbiRequest::OfFnPtr { sig, extra_args } => {
919                     span_bug!(
920                         span,
921                         "`fn_abi_of_fn_ptr({}, {:?})` failed: {}",
922                         sig,
923                         extra_args,
924                         err
925                     );
926                 }
927                 FnAbiRequest::OfInstance { instance, extra_args } => {
928                     span_bug!(
929                         span,
930                         "`fn_abi_of_instance({}, {:?})` failed: {}",
931                         instance,
932                         extra_args,
933                         err
934                     );
935                 }
936             }
937         }
938     }
939 }