]> git.lizzy.rs Git - rust.git/blob - src/librustc_trans/base.rs
more through normalization in typeck & trans
[rust.git] / src / librustc_trans / base.rs
1 // Copyright 2012-2015 The Rust Project Developers. See the COPYRIGHT
2 // file at the top-level directory of this distribution and at
3 // http://rust-lang.org/COPYRIGHT.
4 //
5 // Licensed under the Apache License, Version 2.0 <LICENSE-APACHE or
6 // http://www.apache.org/licenses/LICENSE-2.0> or the MIT license
7 // <LICENSE-MIT or http://opensource.org/licenses/MIT>, at your
8 // option. This file may not be copied, modified, or distributed
9 // except according to those terms.
10
11 //! Translate the completed AST to the LLVM IR.
12 //!
13 //! Some functions here, such as trans_block and trans_expr, return a value --
14 //! the result of the translation to LLVM -- while others, such as trans_fn
15 //! and trans_item, are called only for the side effect of adding a
16 //! particular definition to the LLVM IR output we're producing.
17 //!
18 //! Hopefully useful general knowledge about trans:
19 //!
20 //!   * There's no way to find out the Ty type of a ValueRef.  Doing so
21 //!     would be "trying to get the eggs out of an omelette" (credit:
22 //!     pcwalton).  You can, instead, find out its TypeRef by calling val_ty,
23 //!     but one TypeRef corresponds to many `Ty`s; for instance, tup(int, int,
24 //!     int) and rec(x=int, y=int, z=int) will have the same TypeRef.
25
26 use super::CrateTranslation;
27 use super::ModuleLlvm;
28 use super::ModuleSource;
29 use super::ModuleTranslation;
30
31 use assert_module_sources;
32 use back::link;
33 use back::linker::LinkerInfo;
34 use back::symbol_export::{self, ExportedSymbols};
35 use llvm::{Linkage, ValueRef, Vector, get_param};
36 use llvm;
37 use rustc::hir::def_id::{DefId, LOCAL_CRATE};
38 use middle::lang_items::StartFnLangItem;
39 use rustc::ty::subst::Substs;
40 use rustc::mir::tcx::LvalueTy;
41 use rustc::traits;
42 use rustc::ty::{self, Ty, TyCtxt};
43 use rustc::ty::adjustment::CustomCoerceUnsized;
44 use rustc::dep_graph::{DepNode, WorkProduct};
45 use rustc::hir::map as hir_map;
46 use rustc::util::common::time;
47 use session::config::{self, NoDebugInfo};
48 use rustc_incremental::IncrementalHashesMap;
49 use session::{self, DataTypeKind, Session};
50 use abi::{self, FnType};
51 use mir::lvalue::LvalueRef;
52 use adt;
53 use attributes;
54 use builder::Builder;
55 use callee::{Callee};
56 use common::{C_bool, C_bytes_in_context, C_i32, C_uint};
57 use collector::{self, TransItemCollectionMode};
58 use common::{C_struct_in_context, C_u64, C_undef};
59 use common::CrateContext;
60 use common::{fulfill_obligation};
61 use common::{type_is_zero_size, val_ty};
62 use common;
63 use consts;
64 use context::{SharedCrateContext, CrateContextList};
65 use debuginfo;
66 use declare;
67 use machine;
68 use machine::{llalign_of_min, llsize_of};
69 use meth;
70 use mir;
71 use monomorphize::{self, Instance};
72 use partitioning::{self, PartitioningStrategy, CodegenUnit};
73 use symbol_map::SymbolMap;
74 use symbol_names_test;
75 use trans_item::{TransItem, DefPathBasedNames};
76 use type_::Type;
77 use type_of;
78 use value::Value;
79 use Disr;
80 use util::nodemap::{NodeSet, FxHashMap, FxHashSet};
81
82 use libc::c_uint;
83 use std::ffi::{CStr, CString};
84 use std::rc::Rc;
85 use std::str;
86 use std::i32;
87 use syntax_pos::{Span, DUMMY_SP};
88 use syntax::attr;
89 use rustc::hir;
90 use rustc::ty::layout::{self, Layout};
91 use syntax::ast;
92
93 use mir::lvalue::Alignment;
94
95 pub struct StatRecorder<'a, 'tcx: 'a> {
96     ccx: &'a CrateContext<'a, 'tcx>,
97     name: Option<String>,
98     istart: usize,
99 }
100
101 impl<'a, 'tcx> StatRecorder<'a, 'tcx> {
102     pub fn new(ccx: &'a CrateContext<'a, 'tcx>, name: String) -> StatRecorder<'a, 'tcx> {
103         let istart = ccx.stats().n_llvm_insns.get();
104         StatRecorder {
105             ccx: ccx,
106             name: Some(name),
107             istart: istart,
108         }
109     }
110 }
111
112 impl<'a, 'tcx> Drop for StatRecorder<'a, 'tcx> {
113     fn drop(&mut self) {
114         if self.ccx.sess().trans_stats() {
115             let iend = self.ccx.stats().n_llvm_insns.get();
116             self.ccx.stats().fn_stats.borrow_mut()
117                 .push((self.name.take().unwrap(), iend - self.istart));
118             self.ccx.stats().n_fns.set(self.ccx.stats().n_fns.get() + 1);
119             // Reset LLVM insn count to avoid compound costs.
120             self.ccx.stats().n_llvm_insns.set(self.istart);
121         }
122     }
123 }
124
125 pub fn get_meta(bcx: &Builder, fat_ptr: ValueRef) -> ValueRef {
126     bcx.struct_gep(fat_ptr, abi::FAT_PTR_EXTRA)
127 }
128
129 pub fn get_dataptr(bcx: &Builder, fat_ptr: ValueRef) -> ValueRef {
130     bcx.struct_gep(fat_ptr, abi::FAT_PTR_ADDR)
131 }
132
133 pub fn bin_op_to_icmp_predicate(op: hir::BinOp_,
134                                 signed: bool)
135                                 -> llvm::IntPredicate {
136     match op {
137         hir::BiEq => llvm::IntEQ,
138         hir::BiNe => llvm::IntNE,
139         hir::BiLt => if signed { llvm::IntSLT } else { llvm::IntULT },
140         hir::BiLe => if signed { llvm::IntSLE } else { llvm::IntULE },
141         hir::BiGt => if signed { llvm::IntSGT } else { llvm::IntUGT },
142         hir::BiGe => if signed { llvm::IntSGE } else { llvm::IntUGE },
143         op => {
144             bug!("comparison_op_to_icmp_predicate: expected comparison operator, \
145                   found {:?}",
146                  op)
147         }
148     }
149 }
150
151 pub fn bin_op_to_fcmp_predicate(op: hir::BinOp_) -> llvm::RealPredicate {
152     match op {
153         hir::BiEq => llvm::RealOEQ,
154         hir::BiNe => llvm::RealUNE,
155         hir::BiLt => llvm::RealOLT,
156         hir::BiLe => llvm::RealOLE,
157         hir::BiGt => llvm::RealOGT,
158         hir::BiGe => llvm::RealOGE,
159         op => {
160             bug!("comparison_op_to_fcmp_predicate: expected comparison operator, \
161                   found {:?}",
162                  op);
163         }
164     }
165 }
166
167 pub fn compare_simd_types<'a, 'tcx>(
168     bcx: &Builder<'a, 'tcx>,
169     lhs: ValueRef,
170     rhs: ValueRef,
171     t: Ty<'tcx>,
172     ret_ty: Type,
173     op: hir::BinOp_
174 ) -> ValueRef {
175     let signed = match t.sty {
176         ty::TyFloat(_) => {
177             let cmp = bin_op_to_fcmp_predicate(op);
178             return bcx.sext(bcx.fcmp(cmp, lhs, rhs), ret_ty);
179         },
180         ty::TyUint(_) => false,
181         ty::TyInt(_) => true,
182         _ => bug!("compare_simd_types: invalid SIMD type"),
183     };
184
185     let cmp = bin_op_to_icmp_predicate(op, signed);
186     // LLVM outputs an `< size x i1 >`, so we need to perform a sign extension
187     // to get the correctly sized type. This will compile to a single instruction
188     // once the IR is converted to assembly if the SIMD instruction is supported
189     // by the target architecture.
190     bcx.sext(bcx.icmp(cmp, lhs, rhs), ret_ty)
191 }
192
193 /// Retrieve the information we are losing (making dynamic) in an unsizing
194 /// adjustment.
195 ///
196 /// The `old_info` argument is a bit funny. It is intended for use
197 /// in an upcast, where the new vtable for an object will be drived
198 /// from the old one.
199 pub fn unsized_info<'ccx, 'tcx>(ccx: &CrateContext<'ccx, 'tcx>,
200                                 source: Ty<'tcx>,
201                                 target: Ty<'tcx>,
202                                 old_info: Option<ValueRef>)
203                                 -> ValueRef {
204     let (source, target) = ccx.tcx().struct_lockstep_tails(source, target);
205     match (&source.sty, &target.sty) {
206         (&ty::TyArray(_, len), &ty::TySlice(_)) => C_uint(ccx, len),
207         (&ty::TyDynamic(..), &ty::TyDynamic(..)) => {
208             // For now, upcasts are limited to changes in marker
209             // traits, and hence never actually require an actual
210             // change to the vtable.
211             old_info.expect("unsized_info: missing old info for trait upcast")
212         }
213         (_, &ty::TyDynamic(ref data, ..)) => {
214             consts::ptrcast(meth::get_vtable(ccx, source, data.principal()),
215                             Type::vtable_ptr(ccx))
216         }
217         _ => bug!("unsized_info: invalid unsizing {:?} -> {:?}",
218                                      source,
219                                      target),
220     }
221 }
222
223 /// Coerce `src` to `dst_ty`. `src_ty` must be a thin pointer.
224 pub fn unsize_thin_ptr<'a, 'tcx>(
225     bcx: &Builder<'a, 'tcx>,
226     src: ValueRef,
227     src_ty: Ty<'tcx>,
228     dst_ty: Ty<'tcx>
229 ) -> (ValueRef, ValueRef) {
230     debug!("unsize_thin_ptr: {:?} => {:?}", src_ty, dst_ty);
231     match (&src_ty.sty, &dst_ty.sty) {
232         (&ty::TyRef(_, ty::TypeAndMut { ty: a, .. }),
233          &ty::TyRef(_, ty::TypeAndMut { ty: b, .. })) |
234         (&ty::TyRef(_, ty::TypeAndMut { ty: a, .. }),
235          &ty::TyRawPtr(ty::TypeAndMut { ty: b, .. })) |
236         (&ty::TyRawPtr(ty::TypeAndMut { ty: a, .. }),
237          &ty::TyRawPtr(ty::TypeAndMut { ty: b, .. })) => {
238             assert!(bcx.ccx.shared().type_is_sized(a));
239             let ptr_ty = type_of::in_memory_type_of(bcx.ccx, b).ptr_to();
240             (bcx.pointercast(src, ptr_ty), unsized_info(bcx.ccx, a, b, None))
241         }
242         (&ty::TyAdt(def_a, _), &ty::TyAdt(def_b, _)) if def_a.is_box() && def_b.is_box() => {
243             let (a, b) = (src_ty.boxed_ty(), dst_ty.boxed_ty());
244             assert!(bcx.ccx.shared().type_is_sized(a));
245             let ptr_ty = type_of::in_memory_type_of(bcx.ccx, b).ptr_to();
246             (bcx.pointercast(src, ptr_ty), unsized_info(bcx.ccx, a, b, None))
247         }
248         _ => bug!("unsize_thin_ptr: called on bad types"),
249     }
250 }
251
252 /// Coerce `src`, which is a reference to a value of type `src_ty`,
253 /// to a value of type `dst_ty` and store the result in `dst`
254 pub fn coerce_unsized_into<'a, 'tcx>(bcx: &Builder<'a, 'tcx>,
255                                      src: &LvalueRef<'tcx>,
256                                      dst: &LvalueRef<'tcx>) {
257     let src_ty = src.ty.to_ty(bcx.tcx());
258     let dst_ty = dst.ty.to_ty(bcx.tcx());
259     let coerce_ptr = || {
260         let (base, info) = if common::type_is_fat_ptr(bcx.ccx, src_ty) {
261             // fat-ptr to fat-ptr unsize preserves the vtable
262             // i.e. &'a fmt::Debug+Send => &'a fmt::Debug
263             // So we need to pointercast the base to ensure
264             // the types match up.
265             let (base, info) = load_fat_ptr(bcx, src.llval, src.alignment, src_ty);
266             let llcast_ty = type_of::fat_ptr_base_ty(bcx.ccx, dst_ty);
267             let base = bcx.pointercast(base, llcast_ty);
268             (base, info)
269         } else {
270             let base = load_ty(bcx, src.llval, src.alignment, src_ty);
271             unsize_thin_ptr(bcx, base, src_ty, dst_ty)
272         };
273         store_fat_ptr(bcx, base, info, dst.llval, dst.alignment, dst_ty);
274     };
275     match (&src_ty.sty, &dst_ty.sty) {
276         (&ty::TyRef(..), &ty::TyRef(..)) |
277         (&ty::TyRef(..), &ty::TyRawPtr(..)) |
278         (&ty::TyRawPtr(..), &ty::TyRawPtr(..)) => {
279             coerce_ptr()
280         }
281         (&ty::TyAdt(def_a, _), &ty::TyAdt(def_b, _)) if def_a.is_box() && def_b.is_box() => {
282             coerce_ptr()
283         }
284
285         (&ty::TyAdt(def_a, substs_a), &ty::TyAdt(def_b, substs_b)) => {
286             assert_eq!(def_a, def_b);
287
288             let src_fields = def_a.variants[0].fields.iter().map(|f| {
289                 monomorphize::field_ty(bcx.tcx(), substs_a, f)
290             });
291             let dst_fields = def_b.variants[0].fields.iter().map(|f| {
292                 monomorphize::field_ty(bcx.tcx(), substs_b, f)
293             });
294
295             let iter = src_fields.zip(dst_fields).enumerate();
296             for (i, (src_fty, dst_fty)) in iter {
297                 if type_is_zero_size(bcx.ccx, dst_fty) {
298                     continue;
299                 }
300
301                 let (src_f, src_f_align) = src.trans_field_ptr(bcx, i);
302                 let (dst_f, dst_f_align) = dst.trans_field_ptr(bcx, i);
303                 if src_fty == dst_fty {
304                     memcpy_ty(bcx, dst_f, src_f, src_fty, None);
305                 } else {
306                     coerce_unsized_into(
307                         bcx,
308                         &LvalueRef::new_sized_ty(src_f, src_fty, src_f_align),
309                         &LvalueRef::new_sized_ty(dst_f, dst_fty, dst_f_align)
310                     );
311                 }
312             }
313         }
314         _ => bug!("coerce_unsized_into: invalid coercion {:?} -> {:?}",
315                   src_ty,
316                   dst_ty),
317     }
318 }
319
320 pub fn custom_coerce_unsize_info<'scx, 'tcx>(scx: &SharedCrateContext<'scx, 'tcx>,
321                                              source_ty: Ty<'tcx>,
322                                              target_ty: Ty<'tcx>)
323                                              -> CustomCoerceUnsized {
324     let trait_ref = ty::Binder(ty::TraitRef {
325         def_id: scx.tcx().lang_items.coerce_unsized_trait().unwrap(),
326         substs: scx.tcx().mk_substs_trait(source_ty, &[target_ty])
327     });
328
329     match fulfill_obligation(scx, DUMMY_SP, trait_ref) {
330         traits::VtableImpl(traits::VtableImplData { impl_def_id, .. }) => {
331             scx.tcx().custom_coerce_unsized_kind(impl_def_id)
332         }
333         vtable => {
334             bug!("invalid CoerceUnsized vtable: {:?}", vtable);
335         }
336     }
337 }
338
339 pub fn cast_shift_expr_rhs(
340     cx: &Builder, op: hir::BinOp_, lhs: ValueRef, rhs: ValueRef
341 ) -> ValueRef {
342     cast_shift_rhs(op, lhs, rhs, |a, b| cx.trunc(a, b), |a, b| cx.zext(a, b))
343 }
344
345 pub fn cast_shift_const_rhs(op: hir::BinOp_, lhs: ValueRef, rhs: ValueRef) -> ValueRef {
346     cast_shift_rhs(op,
347                    lhs,
348                    rhs,
349                    |a, b| unsafe { llvm::LLVMConstTrunc(a, b.to_ref()) },
350                    |a, b| unsafe { llvm::LLVMConstZExt(a, b.to_ref()) })
351 }
352
353 fn cast_shift_rhs<F, G>(op: hir::BinOp_,
354                         lhs: ValueRef,
355                         rhs: ValueRef,
356                         trunc: F,
357                         zext: G)
358                         -> ValueRef
359     where F: FnOnce(ValueRef, Type) -> ValueRef,
360           G: FnOnce(ValueRef, Type) -> ValueRef
361 {
362     // Shifts may have any size int on the rhs
363     if op.is_shift() {
364         let mut rhs_llty = val_ty(rhs);
365         let mut lhs_llty = val_ty(lhs);
366         if rhs_llty.kind() == Vector {
367             rhs_llty = rhs_llty.element_type()
368         }
369         if lhs_llty.kind() == Vector {
370             lhs_llty = lhs_llty.element_type()
371         }
372         let rhs_sz = rhs_llty.int_width();
373         let lhs_sz = lhs_llty.int_width();
374         if lhs_sz < rhs_sz {
375             trunc(rhs, lhs_llty)
376         } else if lhs_sz > rhs_sz {
377             // FIXME (#1877: If shifting by negative
378             // values becomes not undefined then this is wrong.
379             zext(rhs, lhs_llty)
380         } else {
381             rhs
382         }
383     } else {
384         rhs
385     }
386 }
387
388 /// Returns whether this session's target will use SEH-based unwinding.
389 ///
390 /// This is only true for MSVC targets, and even then the 64-bit MSVC target
391 /// currently uses SEH-ish unwinding with DWARF info tables to the side (same as
392 /// 64-bit MinGW) instead of "full SEH".
393 pub fn wants_msvc_seh(sess: &Session) -> bool {
394     sess.target.target.options.is_like_msvc
395 }
396
397 pub fn call_assume<'a, 'tcx>(b: &Builder<'a, 'tcx>, val: ValueRef) {
398     let assume_intrinsic = b.ccx.get_intrinsic("llvm.assume");
399     b.call(assume_intrinsic, &[val], None);
400 }
401
402 /// Helper for loading values from memory. Does the necessary conversion if the in-memory type
403 /// differs from the type used for SSA values. Also handles various special cases where the type
404 /// gives us better information about what we are loading.
405 pub fn load_ty<'a, 'tcx>(b: &Builder<'a, 'tcx>, ptr: ValueRef,
406                          alignment: Alignment, t: Ty<'tcx>) -> ValueRef {
407     let ccx = b.ccx;
408     if type_is_zero_size(ccx, t) {
409         return C_undef(type_of::type_of(ccx, t));
410     }
411
412     unsafe {
413         let global = llvm::LLVMIsAGlobalVariable(ptr);
414         if !global.is_null() && llvm::LLVMIsGlobalConstant(global) == llvm::True {
415             let val = llvm::LLVMGetInitializer(global);
416             if !val.is_null() {
417                 if t.is_bool() {
418                     return llvm::LLVMConstTrunc(val, Type::i1(ccx).to_ref());
419                 }
420                 return val;
421             }
422         }
423     }
424
425     if t.is_bool() {
426         b.trunc(b.load_range_assert(ptr, 0, 2, llvm::False, alignment.to_align()),
427                 Type::i1(ccx))
428     } else if t.is_char() {
429         // a char is a Unicode codepoint, and so takes values from 0
430         // to 0x10FFFF inclusive only.
431         b.load_range_assert(ptr, 0, 0x10FFFF + 1, llvm::False, alignment.to_align())
432     } else if (t.is_region_ptr() || t.is_box()) && !common::type_is_fat_ptr(ccx, t) {
433         b.load_nonnull(ptr, alignment.to_align())
434     } else {
435         b.load(ptr, alignment.to_align())
436     }
437 }
438
439 /// Helper for storing values in memory. Does the necessary conversion if the in-memory type
440 /// differs from the type used for SSA values.
441 pub fn store_ty<'a, 'tcx>(cx: &Builder<'a, 'tcx>, v: ValueRef, dst: ValueRef,
442                           dst_align: Alignment, t: Ty<'tcx>) {
443     debug!("store_ty: {:?} : {:?} <- {:?}", Value(dst), t, Value(v));
444
445     if common::type_is_fat_ptr(cx.ccx, t) {
446         let lladdr = cx.extract_value(v, abi::FAT_PTR_ADDR);
447         let llextra = cx.extract_value(v, abi::FAT_PTR_EXTRA);
448         store_fat_ptr(cx, lladdr, llextra, dst, dst_align, t);
449     } else {
450         cx.store(from_immediate(cx, v), dst, dst_align.to_align());
451     }
452 }
453
454 pub fn store_fat_ptr<'a, 'tcx>(cx: &Builder<'a, 'tcx>,
455                                data: ValueRef,
456                                extra: ValueRef,
457                                dst: ValueRef,
458                                dst_align: Alignment,
459                                _ty: Ty<'tcx>) {
460     // FIXME: emit metadata
461     cx.store(data, get_dataptr(cx, dst), dst_align.to_align());
462     cx.store(extra, get_meta(cx, dst), dst_align.to_align());
463 }
464
465 pub fn load_fat_ptr<'a, 'tcx>(
466     b: &Builder<'a, 'tcx>, src: ValueRef, alignment: Alignment, t: Ty<'tcx>
467 ) -> (ValueRef, ValueRef) {
468     let ptr = get_dataptr(b, src);
469     let ptr = if t.is_region_ptr() || t.is_box() {
470         b.load_nonnull(ptr, alignment.to_align())
471     } else {
472         b.load(ptr, alignment.to_align())
473     };
474
475     let meta = get_meta(b, src);
476     let meta_ty = val_ty(meta);
477     // If the 'meta' field is a pointer, it's a vtable, so use load_nonnull
478     // instead
479     let meta = if meta_ty.element_type().kind() == llvm::TypeKind::Pointer {
480         b.load_nonnull(meta, None)
481     } else {
482         b.load(meta, None)
483     };
484
485     (ptr, meta)
486 }
487
488 pub fn from_immediate(bcx: &Builder, val: ValueRef) -> ValueRef {
489     if val_ty(val) == Type::i1(bcx.ccx) {
490         bcx.zext(val, Type::i8(bcx.ccx))
491     } else {
492         val
493     }
494 }
495
496 pub fn to_immediate(bcx: &Builder, val: ValueRef, ty: Ty) -> ValueRef {
497     if ty.is_bool() {
498         bcx.trunc(val, Type::i1(bcx.ccx))
499     } else {
500         val
501     }
502 }
503
504 pub enum Lifetime { Start, End }
505
506 impl Lifetime {
507     // If LLVM lifetime intrinsic support is enabled (i.e. optimizations
508     // on), and `ptr` is nonzero-sized, then extracts the size of `ptr`
509     // and the intrinsic for `lt` and passes them to `emit`, which is in
510     // charge of generating code to call the passed intrinsic on whatever
511     // block of generated code is targetted for the intrinsic.
512     //
513     // If LLVM lifetime intrinsic support is disabled (i.e.  optimizations
514     // off) or `ptr` is zero-sized, then no-op (does not call `emit`).
515     pub fn call(self, b: &Builder, ptr: ValueRef) {
516         if b.ccx.sess().opts.optimize == config::OptLevel::No {
517             return;
518         }
519
520         let size = machine::llsize_of_alloc(b.ccx, val_ty(ptr).element_type());
521         if size == 0 {
522             return;
523         }
524
525         let lifetime_intrinsic = b.ccx.get_intrinsic(match self {
526             Lifetime::Start => "llvm.lifetime.start",
527             Lifetime::End => "llvm.lifetime.end"
528         });
529
530         let ptr = b.pointercast(ptr, Type::i8p(b.ccx));
531         b.call(lifetime_intrinsic, &[C_u64(b.ccx, size), ptr], None);
532     }
533 }
534
535 pub fn call_memcpy<'a, 'tcx>(b: &Builder<'a, 'tcx>,
536                                dst: ValueRef,
537                                src: ValueRef,
538                                n_bytes: ValueRef,
539                                align: u32) {
540     let ccx = b.ccx;
541     let ptr_width = &ccx.sess().target.target.target_pointer_width[..];
542     let key = format!("llvm.memcpy.p0i8.p0i8.i{}", ptr_width);
543     let memcpy = ccx.get_intrinsic(&key);
544     let src_ptr = b.pointercast(src, Type::i8p(ccx));
545     let dst_ptr = b.pointercast(dst, Type::i8p(ccx));
546     let size = b.intcast(n_bytes, ccx.int_type(), false);
547     let align = C_i32(ccx, align as i32);
548     let volatile = C_bool(ccx, false);
549     b.call(memcpy, &[dst_ptr, src_ptr, size, align, volatile], None);
550 }
551
552 pub fn memcpy_ty<'a, 'tcx>(
553     bcx: &Builder<'a, 'tcx>,
554     dst: ValueRef,
555     src: ValueRef,
556     t: Ty<'tcx>,
557     align: Option<u32>,
558 ) {
559     let ccx = bcx.ccx;
560
561     if type_is_zero_size(ccx, t) {
562         return;
563     }
564
565     let llty = type_of::type_of(ccx, t);
566     let llsz = llsize_of(ccx, llty);
567     let llalign = align.unwrap_or_else(|| type_of::align_of(ccx, t));
568     call_memcpy(bcx, dst, src, llsz, llalign as u32);
569 }
570
571 pub fn call_memset<'a, 'tcx>(b: &Builder<'a, 'tcx>,
572                                ptr: ValueRef,
573                                fill_byte: ValueRef,
574                                size: ValueRef,
575                                align: ValueRef,
576                                volatile: bool) -> ValueRef {
577     let ptr_width = &b.ccx.sess().target.target.target_pointer_width[..];
578     let intrinsic_key = format!("llvm.memset.p0i8.i{}", ptr_width);
579     let llintrinsicfn = b.ccx.get_intrinsic(&intrinsic_key);
580     let volatile = C_bool(b.ccx, volatile);
581     b.call(llintrinsicfn, &[ptr, fill_byte, size, align, volatile], None)
582 }
583
584 pub fn trans_instance<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>, instance: Instance<'tcx>) {
585     let _s = if ccx.sess().trans_stats() {
586         let mut instance_name = String::new();
587         DefPathBasedNames::new(ccx.tcx(), true, true)
588             .push_def_path(instance.def, &mut instance_name);
589         Some(StatRecorder::new(ccx, instance_name))
590     } else {
591         None
592     };
593
594     // this is an info! to allow collecting monomorphization statistics
595     // and to allow finding the last function before LLVM aborts from
596     // release builds.
597     info!("trans_instance({})", instance);
598
599     let fn_ty = common::def_ty(ccx.shared(), instance.def, instance.substs);
600     let sig = common::ty_fn_sig(ccx, fn_ty);
601     let sig = ccx.tcx().erase_late_bound_regions_and_normalize(&sig);
602
603     let lldecl = match ccx.instances().borrow().get(&instance) {
604         Some(&val) => val,
605         None => bug!("Instance `{:?}` not already declared", instance)
606     };
607
608     ccx.stats().n_closures.set(ccx.stats().n_closures.get() + 1);
609
610     if !ccx.sess().no_landing_pads() {
611         attributes::emit_uwtable(lldecl, true);
612     }
613
614     let mir = ccx.tcx().item_mir(instance.def);
615     mir::trans_mir(ccx, lldecl, &mir, instance, sig);
616 }
617
618 pub fn trans_ctor_shim<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>,
619                                  def_id: DefId,
620                                  substs: &'tcx Substs<'tcx>,
621                                  disr: Disr,
622                                  llfn: ValueRef) {
623     attributes::inline(llfn, attributes::InlineAttr::Hint);
624     attributes::set_frame_pointer_elimination(ccx, llfn);
625
626     let ctor_ty = common::def_ty(ccx.shared(), def_id, substs);
627     let sig = ccx.tcx().erase_late_bound_regions_and_normalize(&ctor_ty.fn_sig());
628     let fn_ty = FnType::new(ccx, sig, &[]);
629
630     let bcx = Builder::new_block(ccx, llfn, "entry-block");
631     if !fn_ty.ret.is_ignore() {
632         // But if there are no nested returns, we skip the indirection
633         // and have a single retslot
634         let dest = if fn_ty.ret.is_indirect() {
635             get_param(llfn, 0)
636         } else {
637             // We create an alloca to hold a pointer of type `ret.original_ty`
638             // which will hold the pointer to the right alloca which has the
639             // final ret value
640             bcx.alloca(fn_ty.ret.memory_ty(ccx), "sret_slot")
641         };
642         // Can return unsized value
643         let mut dest_val = LvalueRef::new_sized_ty(dest, sig.output(), Alignment::AbiAligned);
644         dest_val.ty = LvalueTy::Downcast {
645             adt_def: sig.output().ty_adt_def().unwrap(),
646             substs: substs,
647             variant_index: disr.0 as usize,
648         };
649         let mut llarg_idx = fn_ty.ret.is_indirect() as usize;
650         let mut arg_idx = 0;
651         for (i, arg_ty) in sig.inputs().iter().enumerate() {
652             let (lldestptr, _) = dest_val.trans_field_ptr(&bcx, i);
653             let arg = &fn_ty.args[arg_idx];
654             arg_idx += 1;
655             if common::type_is_fat_ptr(bcx.ccx, arg_ty) {
656                 let meta = &fn_ty.args[arg_idx];
657                 arg_idx += 1;
658                 arg.store_fn_arg(&bcx, &mut llarg_idx, get_dataptr(&bcx, lldestptr));
659                 meta.store_fn_arg(&bcx, &mut llarg_idx, get_meta(&bcx, lldestptr));
660             } else {
661                 arg.store_fn_arg(&bcx, &mut llarg_idx, lldestptr);
662             }
663         }
664         adt::trans_set_discr(&bcx, sig.output(), dest, disr);
665
666         if fn_ty.ret.is_indirect() {
667             bcx.ret_void();
668             return;
669         }
670
671         if let Some(cast_ty) = fn_ty.ret.cast {
672             bcx.ret(bcx.load(
673                 bcx.pointercast(dest, cast_ty.ptr_to()),
674                 Some(llalign_of_min(ccx, fn_ty.ret.ty))
675             ));
676         } else {
677             bcx.ret(bcx.load(dest, None))
678         }
679     } else {
680         bcx.ret_void();
681     }
682 }
683
684 pub fn llvm_linkage_by_name(name: &str) -> Option<Linkage> {
685     // Use the names from src/llvm/docs/LangRef.rst here. Most types are only
686     // applicable to variable declarations and may not really make sense for
687     // Rust code in the first place but whitelist them anyway and trust that
688     // the user knows what s/he's doing. Who knows, unanticipated use cases
689     // may pop up in the future.
690     //
691     // ghost, dllimport, dllexport and linkonce_odr_autohide are not supported
692     // and don't have to be, LLVM treats them as no-ops.
693     match name {
694         "appending" => Some(llvm::Linkage::AppendingLinkage),
695         "available_externally" => Some(llvm::Linkage::AvailableExternallyLinkage),
696         "common" => Some(llvm::Linkage::CommonLinkage),
697         "extern_weak" => Some(llvm::Linkage::ExternalWeakLinkage),
698         "external" => Some(llvm::Linkage::ExternalLinkage),
699         "internal" => Some(llvm::Linkage::InternalLinkage),
700         "linkonce" => Some(llvm::Linkage::LinkOnceAnyLinkage),
701         "linkonce_odr" => Some(llvm::Linkage::LinkOnceODRLinkage),
702         "private" => Some(llvm::Linkage::PrivateLinkage),
703         "weak" => Some(llvm::Linkage::WeakAnyLinkage),
704         "weak_odr" => Some(llvm::Linkage::WeakODRLinkage),
705         _ => None,
706     }
707 }
708
709 pub fn set_link_section(ccx: &CrateContext,
710                         llval: ValueRef,
711                         attrs: &[ast::Attribute]) {
712     if let Some(sect) = attr::first_attr_value_str_by_name(attrs, "link_section") {
713         if contains_null(&sect.as_str()) {
714             ccx.sess().fatal(&format!("Illegal null byte in link_section value: `{}`", &sect));
715         }
716         unsafe {
717             let buf = CString::new(sect.as_str().as_bytes()).unwrap();
718             llvm::LLVMSetSection(llval, buf.as_ptr());
719         }
720     }
721 }
722
723 /// Create the `main` function which will initialise the rust runtime and call
724 /// users’ main function.
725 pub fn maybe_create_entry_wrapper(ccx: &CrateContext) {
726     let (main_def_id, span) = match *ccx.sess().entry_fn.borrow() {
727         Some((id, span)) => {
728             (ccx.tcx().hir.local_def_id(id), span)
729         }
730         None => return,
731     };
732
733     // check for the #[rustc_error] annotation, which forces an
734     // error in trans. This is used to write compile-fail tests
735     // that actually test that compilation succeeds without
736     // reporting an error.
737     if ccx.tcx().has_attr(main_def_id, "rustc_error") {
738         ccx.tcx().sess.span_fatal(span, "compilation successful");
739     }
740
741     let instance = Instance::mono(ccx.shared(), main_def_id);
742
743     if !ccx.codegen_unit().contains_item(&TransItem::Fn(instance)) {
744         // We want to create the wrapper in the same codegen unit as Rust's main
745         // function.
746         return;
747     }
748
749     let main_llfn = Callee::def(ccx, main_def_id, instance.substs).reify(ccx);
750
751     let et = ccx.sess().entry_type.get().unwrap();
752     match et {
753         config::EntryMain => create_entry_fn(ccx, span, main_llfn, true),
754         config::EntryStart => create_entry_fn(ccx, span, main_llfn, false),
755         config::EntryNone => {}    // Do nothing.
756     }
757
758     fn create_entry_fn(ccx: &CrateContext,
759                        sp: Span,
760                        rust_main: ValueRef,
761                        use_start_lang_item: bool) {
762         let llfty = Type::func(&[ccx.int_type(), Type::i8p(ccx).ptr_to()], &ccx.int_type());
763
764         if declare::get_defined_value(ccx, "main").is_some() {
765             // FIXME: We should be smart and show a better diagnostic here.
766             ccx.sess().struct_span_err(sp, "entry symbol `main` defined multiple times")
767                       .help("did you use #[no_mangle] on `fn main`? Use #[start] instead")
768                       .emit();
769             ccx.sess().abort_if_errors();
770             bug!();
771         }
772         let llfn = declare::declare_cfn(ccx, "main", llfty);
773
774         // `main` should respect same config for frame pointer elimination as rest of code
775         attributes::set_frame_pointer_elimination(ccx, llfn);
776
777         let bld = Builder::new_block(ccx, llfn, "top");
778
779         debuginfo::gdb::insert_reference_to_gdb_debug_scripts_section_global(ccx, &bld);
780
781         let (start_fn, args) = if use_start_lang_item {
782             let start_def_id = ccx.tcx().require_lang_item(StartFnLangItem);
783             let empty_substs = ccx.tcx().intern_substs(&[]);
784             let start_fn = Callee::def(ccx, start_def_id, empty_substs).reify(ccx);
785             (start_fn, vec![bld.pointercast(rust_main, Type::i8p(ccx).ptr_to()), get_param(llfn, 0),
786                 get_param(llfn, 1)])
787         } else {
788             debug!("using user-defined start fn");
789             (rust_main, vec![get_param(llfn, 0 as c_uint), get_param(llfn, 1 as c_uint)])
790         };
791
792         let result = bld.call(start_fn, &args, None);
793         bld.ret(result);
794     }
795 }
796
797 fn contains_null(s: &str) -> bool {
798     s.bytes().any(|b| b == 0)
799 }
800
801 fn write_metadata(cx: &SharedCrateContext,
802                   exported_symbols: &NodeSet) -> Vec<u8> {
803     use flate;
804
805     #[derive(PartialEq, Eq, PartialOrd, Ord)]
806     enum MetadataKind {
807         None,
808         Uncompressed,
809         Compressed
810     }
811
812     let kind = cx.sess().crate_types.borrow().iter().map(|ty| {
813         match *ty {
814             config::CrateTypeExecutable |
815             config::CrateTypeStaticlib |
816             config::CrateTypeCdylib => MetadataKind::None,
817
818             config::CrateTypeRlib => MetadataKind::Uncompressed,
819
820             config::CrateTypeDylib |
821             config::CrateTypeProcMacro => MetadataKind::Compressed,
822         }
823     }).max().unwrap();
824
825     if kind == MetadataKind::None {
826         return Vec::new();
827     }
828
829     let cstore = &cx.tcx().sess.cstore;
830     let metadata = cstore.encode_metadata(cx.tcx(),
831                                           cx.export_map(),
832                                           cx.link_meta(),
833                                           exported_symbols);
834     if kind == MetadataKind::Uncompressed {
835         return metadata;
836     }
837
838     assert!(kind == MetadataKind::Compressed);
839     let mut compressed = cstore.metadata_encoding_version().to_vec();
840     compressed.extend_from_slice(&flate::deflate_bytes(&metadata));
841
842     let llmeta = C_bytes_in_context(cx.metadata_llcx(), &compressed[..]);
843     let llconst = C_struct_in_context(cx.metadata_llcx(), &[llmeta], false);
844     let name = cx.metadata_symbol_name();
845     let buf = CString::new(name).unwrap();
846     let llglobal = unsafe {
847         llvm::LLVMAddGlobal(cx.metadata_llmod(), val_ty(llconst).to_ref(), buf.as_ptr())
848     };
849     unsafe {
850         llvm::LLVMSetInitializer(llglobal, llconst);
851         let section_name =
852             cx.tcx().sess.cstore.metadata_section_name(&cx.sess().target.target);
853         let name = CString::new(section_name).unwrap();
854         llvm::LLVMSetSection(llglobal, name.as_ptr());
855
856         // Also generate a .section directive to force no
857         // flags, at least for ELF outputs, so that the
858         // metadata doesn't get loaded into memory.
859         let directive = format!(".section {}", section_name);
860         let directive = CString::new(directive).unwrap();
861         llvm::LLVMSetModuleInlineAsm(cx.metadata_llmod(), directive.as_ptr())
862     }
863     return metadata;
864 }
865
866 /// Find any symbols that are defined in one compilation unit, but not declared
867 /// in any other compilation unit.  Give these symbols internal linkage.
868 fn internalize_symbols<'a, 'tcx>(sess: &Session,
869                                  ccxs: &CrateContextList<'a, 'tcx>,
870                                  symbol_map: &SymbolMap<'tcx>,
871                                  exported_symbols: &ExportedSymbols) {
872     let export_threshold =
873         symbol_export::crates_export_threshold(&sess.crate_types.borrow()[..]);
874
875     let exported_symbols = exported_symbols
876         .exported_symbols(LOCAL_CRATE)
877         .iter()
878         .filter(|&&(_, export_level)| {
879             symbol_export::is_below_threshold(export_level, export_threshold)
880         })
881         .map(|&(ref name, _)| &name[..])
882         .collect::<FxHashSet<&str>>();
883
884     let scx = ccxs.shared();
885     let tcx = scx.tcx();
886
887     let incr_comp = sess.opts.debugging_opts.incremental.is_some();
888
889     // 'unsafe' because we are holding on to CStr's from the LLVM module within
890     // this block.
891     unsafe {
892         let mut referenced_somewhere = FxHashSet();
893
894         // Collect all symbols that need to stay externally visible because they
895         // are referenced via a declaration in some other codegen unit. In
896         // incremental compilation, we don't need to collect. See below for more
897         // information.
898         if !incr_comp {
899             for ccx in ccxs.iter_need_trans() {
900                 for val in iter_globals(ccx.llmod()).chain(iter_functions(ccx.llmod())) {
901                     let linkage = llvm::LLVMRustGetLinkage(val);
902                     // We only care about external declarations (not definitions)
903                     // and available_externally definitions.
904                     let is_available_externally =
905                         linkage == llvm::Linkage::AvailableExternallyLinkage;
906                     let is_decl = llvm::LLVMIsDeclaration(val) == llvm::True;
907
908                     if is_decl || is_available_externally {
909                         let symbol_name = CStr::from_ptr(llvm::LLVMGetValueName(val));
910                         referenced_somewhere.insert(symbol_name);
911                     }
912                 }
913             }
914         }
915
916         // Also collect all symbols for which we cannot adjust linkage, because
917         // it is fixed by some directive in the source code.
918         let (locally_defined_symbols, linkage_fixed_explicitly) = {
919             let mut locally_defined_symbols = FxHashSet();
920             let mut linkage_fixed_explicitly = FxHashSet();
921
922             for trans_item in scx.translation_items().borrow().iter() {
923                 let symbol_name = symbol_map.get_or_compute(scx, *trans_item);
924                 if trans_item.explicit_linkage(tcx).is_some() {
925                     linkage_fixed_explicitly.insert(symbol_name.clone());
926                 }
927                 locally_defined_symbols.insert(symbol_name);
928             }
929
930             (locally_defined_symbols, linkage_fixed_explicitly)
931         };
932
933         // Examine each external definition.  If the definition is not used in
934         // any other compilation unit, and is not reachable from other crates,
935         // then give it internal linkage.
936         for ccx in ccxs.iter_need_trans() {
937             for val in iter_globals(ccx.llmod()).chain(iter_functions(ccx.llmod())) {
938                 let linkage = llvm::LLVMRustGetLinkage(val);
939
940                 let is_externally_visible = (linkage == llvm::Linkage::ExternalLinkage) ||
941                                             (linkage == llvm::Linkage::LinkOnceODRLinkage) ||
942                                             (linkage == llvm::Linkage::WeakODRLinkage);
943
944                 if !is_externally_visible {
945                     // This symbol is not visible outside of its codegen unit,
946                     // so there is nothing to do for it.
947                     continue;
948                 }
949
950                 let name_cstr = CStr::from_ptr(llvm::LLVMGetValueName(val));
951                 let name_str = name_cstr.to_str().unwrap();
952
953                 if exported_symbols.contains(&name_str) {
954                     // This symbol is explicitly exported, so we can't
955                     // mark it as internal or hidden.
956                     continue;
957                 }
958
959                 let is_declaration = llvm::LLVMIsDeclaration(val) == llvm::True;
960
961                 if is_declaration {
962                     if locally_defined_symbols.contains(name_str) {
963                         // Only mark declarations from the current crate as hidden.
964                         // Otherwise we would mark things as hidden that are
965                         // imported from other crates or native libraries.
966                         llvm::LLVMRustSetVisibility(val, llvm::Visibility::Hidden);
967                     }
968                 } else {
969                     let has_fixed_linkage = linkage_fixed_explicitly.contains(name_str);
970
971                     if !has_fixed_linkage {
972                         // In incremental compilation mode, we can't be sure that
973                         // we saw all references because we don't know what's in
974                         // cached compilation units, so we always assume that the
975                         // given item has been referenced.
976                         if incr_comp || referenced_somewhere.contains(&name_cstr) {
977                             llvm::LLVMRustSetVisibility(val, llvm::Visibility::Hidden);
978                         } else {
979                             llvm::LLVMRustSetLinkage(val, llvm::Linkage::InternalLinkage);
980                         }
981
982                         llvm::LLVMSetDLLStorageClass(val, llvm::DLLStorageClass::Default);
983                         llvm::UnsetComdat(val);
984                     }
985                 }
986             }
987         }
988     }
989 }
990
991 // Create a `__imp_<symbol> = &symbol` global for every public static `symbol`.
992 // This is required to satisfy `dllimport` references to static data in .rlibs
993 // when using MSVC linker.  We do this only for data, as linker can fix up
994 // code references on its own.
995 // See #26591, #27438
996 fn create_imps(cx: &CrateContextList) {
997     // The x86 ABI seems to require that leading underscores are added to symbol
998     // names, so we need an extra underscore on 32-bit. There's also a leading
999     // '\x01' here which disables LLVM's symbol mangling (e.g. no extra
1000     // underscores added in front).
1001     let prefix = if cx.shared().sess().target.target.target_pointer_width == "32" {
1002         "\x01__imp__"
1003     } else {
1004         "\x01__imp_"
1005     };
1006     unsafe {
1007         for ccx in cx.iter_need_trans() {
1008             let exported: Vec<_> = iter_globals(ccx.llmod())
1009                                        .filter(|&val| {
1010                                            llvm::LLVMRustGetLinkage(val) ==
1011                                            llvm::Linkage::ExternalLinkage &&
1012                                            llvm::LLVMIsDeclaration(val) == 0
1013                                        })
1014                                        .collect();
1015
1016             let i8p_ty = Type::i8p(&ccx);
1017             for val in exported {
1018                 let name = CStr::from_ptr(llvm::LLVMGetValueName(val));
1019                 let mut imp_name = prefix.as_bytes().to_vec();
1020                 imp_name.extend(name.to_bytes());
1021                 let imp_name = CString::new(imp_name).unwrap();
1022                 let imp = llvm::LLVMAddGlobal(ccx.llmod(),
1023                                               i8p_ty.to_ref(),
1024                                               imp_name.as_ptr() as *const _);
1025                 let init = llvm::LLVMConstBitCast(val, i8p_ty.to_ref());
1026                 llvm::LLVMSetInitializer(imp, init);
1027                 llvm::LLVMRustSetLinkage(imp, llvm::Linkage::ExternalLinkage);
1028             }
1029         }
1030     }
1031 }
1032
1033 struct ValueIter {
1034     cur: ValueRef,
1035     step: unsafe extern "C" fn(ValueRef) -> ValueRef,
1036 }
1037
1038 impl Iterator for ValueIter {
1039     type Item = ValueRef;
1040
1041     fn next(&mut self) -> Option<ValueRef> {
1042         let old = self.cur;
1043         if !old.is_null() {
1044             self.cur = unsafe { (self.step)(old) };
1045             Some(old)
1046         } else {
1047             None
1048         }
1049     }
1050 }
1051
1052 fn iter_globals(llmod: llvm::ModuleRef) -> ValueIter {
1053     unsafe {
1054         ValueIter {
1055             cur: llvm::LLVMGetFirstGlobal(llmod),
1056             step: llvm::LLVMGetNextGlobal,
1057         }
1058     }
1059 }
1060
1061 fn iter_functions(llmod: llvm::ModuleRef) -> ValueIter {
1062     unsafe {
1063         ValueIter {
1064             cur: llvm::LLVMGetFirstFunction(llmod),
1065             step: llvm::LLVMGetNextFunction,
1066         }
1067     }
1068 }
1069
1070 /// The context provided lists a set of reachable ids as calculated by
1071 /// middle::reachable, but this contains far more ids and symbols than we're
1072 /// actually exposing from the object file. This function will filter the set in
1073 /// the context to the set of ids which correspond to symbols that are exposed
1074 /// from the object file being generated.
1075 ///
1076 /// This list is later used by linkers to determine the set of symbols needed to
1077 /// be exposed from a dynamic library and it's also encoded into the metadata.
1078 pub fn find_exported_symbols(tcx: TyCtxt, reachable: NodeSet) -> NodeSet {
1079     reachable.into_iter().filter(|&id| {
1080         // Next, we want to ignore some FFI functions that are not exposed from
1081         // this crate. Reachable FFI functions can be lumped into two
1082         // categories:
1083         //
1084         // 1. Those that are included statically via a static library
1085         // 2. Those included otherwise (e.g. dynamically or via a framework)
1086         //
1087         // Although our LLVM module is not literally emitting code for the
1088         // statically included symbols, it's an export of our library which
1089         // needs to be passed on to the linker and encoded in the metadata.
1090         //
1091         // As a result, if this id is an FFI item (foreign item) then we only
1092         // let it through if it's included statically.
1093         match tcx.hir.get(id) {
1094             hir_map::NodeForeignItem(..) => {
1095                 let def_id = tcx.hir.local_def_id(id);
1096                 tcx.sess.cstore.is_statically_included_foreign_item(def_id)
1097             }
1098
1099             // Only consider nodes that actually have exported symbols.
1100             hir_map::NodeItem(&hir::Item {
1101                 node: hir::ItemStatic(..), .. }) |
1102             hir_map::NodeItem(&hir::Item {
1103                 node: hir::ItemFn(..), .. }) |
1104             hir_map::NodeImplItem(&hir::ImplItem {
1105                 node: hir::ImplItemKind::Method(..), .. }) => {
1106                 let def_id = tcx.hir.local_def_id(id);
1107                 let generics = tcx.item_generics(def_id);
1108                 let attributes = tcx.get_attrs(def_id);
1109                 (generics.parent_types == 0 && generics.types.is_empty()) &&
1110                 // Functions marked with #[inline] are only ever translated
1111                 // with "internal" linkage and are never exported.
1112                 !attr::requests_inline(&attributes[..])
1113             }
1114
1115             _ => false
1116         }
1117     }).collect()
1118 }
1119
1120 pub fn trans_crate<'a, 'tcx>(tcx: TyCtxt<'a, 'tcx, 'tcx>,
1121                              analysis: ty::CrateAnalysis,
1122                              incremental_hashes_map: &IncrementalHashesMap)
1123                              -> CrateTranslation {
1124     let _task = tcx.dep_graph.in_task(DepNode::TransCrate);
1125
1126     // Be careful with this krate: obviously it gives access to the
1127     // entire contents of the krate. So if you push any subtasks of
1128     // `TransCrate`, you need to be careful to register "reads" of the
1129     // particular items that will be processed.
1130     let krate = tcx.hir.krate();
1131
1132     let ty::CrateAnalysis { export_map, reachable, name, .. } = analysis;
1133     let exported_symbols = find_exported_symbols(tcx, reachable);
1134
1135     let check_overflow = tcx.sess.overflow_checks();
1136
1137     let link_meta = link::build_link_meta(incremental_hashes_map, &name);
1138
1139     let shared_ccx = SharedCrateContext::new(tcx,
1140                                              export_map,
1141                                              link_meta.clone(),
1142                                              exported_symbols,
1143                                              check_overflow);
1144     // Translate the metadata.
1145     let metadata = time(tcx.sess.time_passes(), "write metadata", || {
1146         write_metadata(&shared_ccx, shared_ccx.exported_symbols())
1147     });
1148
1149     let metadata_module = ModuleTranslation {
1150         name: link::METADATA_MODULE_NAME.to_string(),
1151         symbol_name_hash: 0, // we always rebuild metadata, at least for now
1152         source: ModuleSource::Translated(ModuleLlvm {
1153             llcx: shared_ccx.metadata_llcx(),
1154             llmod: shared_ccx.metadata_llmod(),
1155         }),
1156     };
1157     let no_builtins = attr::contains_name(&krate.attrs, "no_builtins");
1158
1159     // Skip crate items and just output metadata in -Z no-trans mode.
1160     if tcx.sess.opts.debugging_opts.no_trans ||
1161        !tcx.sess.opts.output_types.should_trans() {
1162         let empty_exported_symbols = ExportedSymbols::empty();
1163         let linker_info = LinkerInfo::new(&shared_ccx, &empty_exported_symbols);
1164         return CrateTranslation {
1165             modules: vec![],
1166             metadata_module: metadata_module,
1167             link: link_meta,
1168             metadata: metadata,
1169             exported_symbols: empty_exported_symbols,
1170             no_builtins: no_builtins,
1171             linker_info: linker_info,
1172             windows_subsystem: None,
1173         };
1174     }
1175
1176     // Run the translation item collector and partition the collected items into
1177     // codegen units.
1178     let (codegen_units, symbol_map) = collect_and_partition_translation_items(&shared_ccx);
1179
1180     let symbol_map = Rc::new(symbol_map);
1181
1182     let previous_work_products = trans_reuse_previous_work_products(&shared_ccx,
1183                                                                     &codegen_units,
1184                                                                     &symbol_map);
1185
1186     let crate_context_list = CrateContextList::new(&shared_ccx,
1187                                                    codegen_units,
1188                                                    previous_work_products,
1189                                                    symbol_map.clone());
1190     let modules: Vec<_> = crate_context_list.iter_all()
1191         .map(|ccx| {
1192             let source = match ccx.previous_work_product() {
1193                 Some(buf) => ModuleSource::Preexisting(buf.clone()),
1194                 None => ModuleSource::Translated(ModuleLlvm {
1195                     llcx: ccx.llcx(),
1196                     llmod: ccx.llmod(),
1197                 }),
1198             };
1199
1200             ModuleTranslation {
1201                 name: String::from(ccx.codegen_unit().name()),
1202                 symbol_name_hash: ccx.codegen_unit()
1203                                      .compute_symbol_name_hash(&shared_ccx,
1204                                                                &symbol_map),
1205                 source: source,
1206             }
1207         })
1208         .collect();
1209
1210     assert_module_sources::assert_module_sources(tcx, &modules);
1211
1212     // Instantiate translation items without filling out definitions yet...
1213     for ccx in crate_context_list.iter_need_trans() {
1214         let cgu = ccx.codegen_unit();
1215         let trans_items = cgu.items_in_deterministic_order(tcx, &symbol_map);
1216
1217         tcx.dep_graph.with_task(cgu.work_product_dep_node(), || {
1218             for (trans_item, linkage) in trans_items {
1219                 trans_item.predefine(&ccx, linkage);
1220             }
1221         });
1222     }
1223
1224     // ... and now that we have everything pre-defined, fill out those definitions.
1225     for ccx in crate_context_list.iter_need_trans() {
1226         let cgu = ccx.codegen_unit();
1227         let trans_items = cgu.items_in_deterministic_order(tcx, &symbol_map);
1228         tcx.dep_graph.with_task(cgu.work_product_dep_node(), || {
1229             for (trans_item, _) in trans_items {
1230                 trans_item.define(&ccx);
1231             }
1232
1233             // If this codegen unit contains the main function, also create the
1234             // wrapper here
1235             maybe_create_entry_wrapper(&ccx);
1236
1237             // Run replace-all-uses-with for statics that need it
1238             for &(old_g, new_g) in ccx.statics_to_rauw().borrow().iter() {
1239                 unsafe {
1240                     let bitcast = llvm::LLVMConstPointerCast(new_g, llvm::LLVMTypeOf(old_g));
1241                     llvm::LLVMReplaceAllUsesWith(old_g, bitcast);
1242                     llvm::LLVMDeleteGlobal(old_g);
1243                 }
1244             }
1245
1246             // Finalize debuginfo
1247             if ccx.sess().opts.debuginfo != NoDebugInfo {
1248                 debuginfo::finalize(&ccx);
1249             }
1250         });
1251     }
1252
1253     symbol_names_test::report_symbol_names(&shared_ccx);
1254
1255     if shared_ccx.sess().trans_stats() {
1256         let stats = shared_ccx.stats();
1257         println!("--- trans stats ---");
1258         println!("n_glues_created: {}", stats.n_glues_created.get());
1259         println!("n_null_glues: {}", stats.n_null_glues.get());
1260         println!("n_real_glues: {}", stats.n_real_glues.get());
1261
1262         println!("n_fns: {}", stats.n_fns.get());
1263         println!("n_inlines: {}", stats.n_inlines.get());
1264         println!("n_closures: {}", stats.n_closures.get());
1265         println!("fn stats:");
1266         stats.fn_stats.borrow_mut().sort_by(|&(_, insns_a), &(_, insns_b)| {
1267             insns_b.cmp(&insns_a)
1268         });
1269         for tuple in stats.fn_stats.borrow().iter() {
1270             match *tuple {
1271                 (ref name, insns) => {
1272                     println!("{} insns, {}", insns, *name);
1273                 }
1274             }
1275         }
1276     }
1277
1278     if shared_ccx.sess().count_llvm_insns() {
1279         for (k, v) in shared_ccx.stats().llvm_insns.borrow().iter() {
1280             println!("{:7} {}", *v, *k);
1281         }
1282     }
1283
1284     let sess = shared_ccx.sess();
1285
1286     let exported_symbols = ExportedSymbols::compute_from(&shared_ccx,
1287                                                          &symbol_map);
1288
1289     // Now that we have all symbols that are exported from the CGUs of this
1290     // crate, we can run the `internalize_symbols` pass.
1291     time(shared_ccx.sess().time_passes(), "internalize symbols", || {
1292         internalize_symbols(sess,
1293                             &crate_context_list,
1294                             &symbol_map,
1295                             &exported_symbols);
1296     });
1297
1298     if tcx.sess.opts.debugging_opts.print_type_sizes {
1299         gather_type_sizes(tcx);
1300     }
1301
1302     if sess.target.target.options.is_like_msvc &&
1303        sess.crate_types.borrow().iter().any(|ct| *ct == config::CrateTypeRlib) {
1304         create_imps(&crate_context_list);
1305     }
1306
1307     let linker_info = LinkerInfo::new(&shared_ccx, &exported_symbols);
1308
1309     let subsystem = attr::first_attr_value_str_by_name(&krate.attrs,
1310                                                        "windows_subsystem");
1311     let windows_subsystem = subsystem.map(|subsystem| {
1312         if subsystem != "windows" && subsystem != "console" {
1313             tcx.sess.fatal(&format!("invalid windows subsystem `{}`, only \
1314                                      `windows` and `console` are allowed",
1315                                     subsystem));
1316         }
1317         subsystem.to_string()
1318     });
1319
1320     CrateTranslation {
1321         modules: modules,
1322         metadata_module: metadata_module,
1323         link: link_meta,
1324         metadata: metadata,
1325         exported_symbols: exported_symbols,
1326         no_builtins: no_builtins,
1327         linker_info: linker_info,
1328         windows_subsystem: windows_subsystem,
1329     }
1330 }
1331
1332 fn gather_type_sizes<'a, 'tcx>(tcx: TyCtxt<'a, 'tcx, 'tcx>) {
1333     let layout_cache = tcx.layout_cache.borrow();
1334     for (ty, layout) in layout_cache.iter() {
1335
1336         // (delay format until we actually need it)
1337         let record = |kind, opt_discr_size, variants| {
1338             let type_desc = format!("{:?}", ty);
1339             let overall_size = layout.size(&tcx.data_layout);
1340             let align = layout.align(&tcx.data_layout);
1341             tcx.sess.code_stats.borrow_mut().record_type_size(kind,
1342                                                               type_desc,
1343                                                               align,
1344                                                               overall_size,
1345                                                               opt_discr_size,
1346                                                               variants);
1347         };
1348
1349         let (adt_def, substs) = match ty.sty {
1350             ty::TyAdt(ref adt_def, substs) => {
1351                 debug!("print-type-size t: `{:?}` process adt", ty);
1352                 (adt_def, substs)
1353             }
1354
1355             ty::TyClosure(..) => {
1356                 debug!("print-type-size t: `{:?}` record closure", ty);
1357                 record(DataTypeKind::Closure, None, vec![]);
1358                 continue;
1359             }
1360
1361             _ => {
1362                 debug!("print-type-size t: `{:?}` skip non-nominal", ty);
1363                 continue;
1364             }
1365         };
1366
1367         let adt_kind = adt_def.adt_kind();
1368
1369         let build_field_info = |(field_name, field_ty): (ast::Name, Ty), offset: &layout::Size| {
1370             match layout_cache.get(&field_ty) {
1371                 None => bug!("no layout found for field {} type: `{:?}`", field_name, field_ty),
1372                 Some(field_layout) => {
1373                     session::FieldInfo {
1374                         name: field_name.to_string(),
1375                         offset: offset.bytes(),
1376                         size: field_layout.size(&tcx.data_layout).bytes(),
1377                         align: field_layout.align(&tcx.data_layout).abi(),
1378                     }
1379                 }
1380             }
1381         };
1382
1383         let build_primitive_info = |name: ast::Name, value: &layout::Primitive| {
1384             session::VariantInfo {
1385                 name: Some(name.to_string()),
1386                 kind: session::SizeKind::Exact,
1387                 align: value.align(&tcx.data_layout).abi(),
1388                 size: value.size(&tcx.data_layout).bytes(),
1389                 fields: vec![],
1390             }
1391         };
1392
1393         enum Fields<'a> {
1394             WithDiscrim(&'a layout::Struct),
1395             NoDiscrim(&'a layout::Struct),
1396         }
1397
1398         let build_variant_info = |n: Option<ast::Name>, flds: &[(ast::Name, Ty)], layout: Fields| {
1399             let (s, field_offsets) = match layout {
1400                 Fields::WithDiscrim(s) => (s, &s.offsets[1..]),
1401                 Fields::NoDiscrim(s) => (s, &s.offsets[0..]),
1402             };
1403             let field_info: Vec<_> = flds.iter()
1404                 .zip(field_offsets.iter())
1405                 .map(|(&field_name_ty, offset)| build_field_info(field_name_ty, offset))
1406                 .collect();
1407
1408             session::VariantInfo {
1409                 name: n.map(|n|n.to_string()),
1410                 kind: if s.sized {
1411                     session::SizeKind::Exact
1412                 } else {
1413                     session::SizeKind::Min
1414                 },
1415                 align: s.align.abi(),
1416                 size: s.min_size.bytes(),
1417                 fields: field_info,
1418             }
1419         };
1420
1421         match **layout {
1422             Layout::StructWrappedNullablePointer { nonnull: ref variant_layout,
1423                                                    nndiscr,
1424                                                    discrfield: _,
1425                                                    discrfield_source: _ } => {
1426                 debug!("print-type-size t: `{:?}` adt struct-wrapped nullable nndiscr {} is {:?}",
1427                        ty, nndiscr, variant_layout);
1428                 let variant_def = &adt_def.variants[nndiscr as usize];
1429                 let fields: Vec<_> = variant_def.fields.iter()
1430                     .map(|field_def| (field_def.name, field_def.ty(tcx, substs)))
1431                     .collect();
1432                 record(adt_kind.into(),
1433                        None,
1434                        vec![build_variant_info(Some(variant_def.name),
1435                                                &fields,
1436                                                Fields::NoDiscrim(variant_layout))]);
1437             }
1438             Layout::RawNullablePointer { nndiscr, value } => {
1439                 debug!("print-type-size t: `{:?}` adt raw nullable nndiscr {} is {:?}",
1440                        ty, nndiscr, value);
1441                 let variant_def = &adt_def.variants[nndiscr as usize];
1442                 record(adt_kind.into(), None,
1443                        vec![build_primitive_info(variant_def.name, &value)]);
1444             }
1445             Layout::Univariant { variant: ref variant_layout, non_zero: _ } => {
1446                 let variant_names = || {
1447                     adt_def.variants.iter().map(|v|format!("{}", v.name)).collect::<Vec<_>>()
1448                 };
1449                 debug!("print-type-size t: `{:?}` adt univariant {:?} variants: {:?}",
1450                        ty, variant_layout, variant_names());
1451                 assert!(adt_def.variants.len() <= 1,
1452                         "univariant with variants {:?}", variant_names());
1453                 if adt_def.variants.len() == 1 {
1454                     let variant_def = &adt_def.variants[0];
1455                     let fields: Vec<_> = variant_def.fields.iter()
1456                         .map(|field_def| (field_def.name, field_def.ty(tcx, substs)))
1457                         .collect();
1458                     record(adt_kind.into(),
1459                            None,
1460                            vec![build_variant_info(Some(variant_def.name),
1461                                                    &fields,
1462                                                    Fields::NoDiscrim(variant_layout))]);
1463                 } else {
1464                     // (This case arises for *empty* enums; so give it
1465                     // zero variants.)
1466                     record(adt_kind.into(), None, vec![]);
1467                 }
1468             }
1469
1470             Layout::General { ref variants, discr, .. } => {
1471                 debug!("print-type-size t: `{:?}` adt general variants def {} layouts {} {:?}",
1472                        ty, adt_def.variants.len(), variants.len(), variants);
1473                 let variant_infos: Vec<_> = adt_def.variants.iter()
1474                     .zip(variants.iter())
1475                     .map(|(variant_def, variant_layout)| {
1476                         let fields: Vec<_> = variant_def.fields.iter()
1477                             .map(|field_def| (field_def.name, field_def.ty(tcx, substs)))
1478                             .collect();
1479                         build_variant_info(Some(variant_def.name),
1480                                            &fields,
1481                                            Fields::WithDiscrim(variant_layout))
1482                     })
1483                     .collect();
1484                 record(adt_kind.into(), Some(discr.size()), variant_infos);
1485             }
1486
1487             Layout::UntaggedUnion { ref variants } => {
1488                 debug!("print-type-size t: `{:?}` adt union variants {:?}",
1489                        ty, variants);
1490                 // layout does not currently store info about each
1491                 // variant...
1492                 record(adt_kind.into(), None, Vec::new());
1493             }
1494
1495             Layout::CEnum { discr, .. } => {
1496                 debug!("print-type-size t: `{:?}` adt c-like enum", ty);
1497                 let variant_infos: Vec<_> = adt_def.variants.iter()
1498                     .map(|variant_def| {
1499                         build_primitive_info(variant_def.name,
1500                                              &layout::Primitive::Int(discr))
1501                     })
1502                     .collect();
1503                 record(adt_kind.into(), Some(discr.size()), variant_infos);
1504             }
1505
1506             // other cases provide little interesting (i.e. adjustable
1507             // via representation tweaks) size info beyond total size.
1508             Layout::Scalar { .. } |
1509             Layout::Vector { .. } |
1510             Layout::Array { .. } |
1511             Layout::FatPointer { .. } => {
1512                 debug!("print-type-size t: `{:?}` adt other", ty);
1513                 record(adt_kind.into(), None, Vec::new())
1514             }
1515         }
1516     }
1517 }
1518
1519 /// For each CGU, identify if we can reuse an existing object file (or
1520 /// maybe other context).
1521 fn trans_reuse_previous_work_products(scx: &SharedCrateContext,
1522                                       codegen_units: &[CodegenUnit],
1523                                       symbol_map: &SymbolMap)
1524                                       -> Vec<Option<WorkProduct>> {
1525     debug!("trans_reuse_previous_work_products()");
1526     codegen_units
1527         .iter()
1528         .map(|cgu| {
1529             let id = cgu.work_product_id();
1530
1531             let hash = cgu.compute_symbol_name_hash(scx, symbol_map);
1532
1533             debug!("trans_reuse_previous_work_products: id={:?} hash={}", id, hash);
1534
1535             if let Some(work_product) = scx.dep_graph().previous_work_product(&id) {
1536                 if work_product.input_hash == hash {
1537                     debug!("trans_reuse_previous_work_products: reusing {:?}", work_product);
1538                     return Some(work_product);
1539                 } else {
1540                     if scx.sess().opts.debugging_opts.incremental_info {
1541                         println!("incremental: CGU `{}` invalidated because of \
1542                                   changed partitioning hash.",
1543                                   cgu.name());
1544                     }
1545                     debug!("trans_reuse_previous_work_products: \
1546                             not reusing {:?} because hash changed to {:?}",
1547                            work_product, hash);
1548                 }
1549             }
1550
1551             None
1552         })
1553         .collect()
1554 }
1555
1556 fn collect_and_partition_translation_items<'a, 'tcx>(scx: &SharedCrateContext<'a, 'tcx>)
1557                                                      -> (Vec<CodegenUnit<'tcx>>, SymbolMap<'tcx>) {
1558     let time_passes = scx.sess().time_passes();
1559
1560     let collection_mode = match scx.sess().opts.debugging_opts.print_trans_items {
1561         Some(ref s) => {
1562             let mode_string = s.to_lowercase();
1563             let mode_string = mode_string.trim();
1564             if mode_string == "eager" {
1565                 TransItemCollectionMode::Eager
1566             } else {
1567                 if mode_string != "lazy" {
1568                     let message = format!("Unknown codegen-item collection mode '{}'. \
1569                                            Falling back to 'lazy' mode.",
1570                                            mode_string);
1571                     scx.sess().warn(&message);
1572                 }
1573
1574                 TransItemCollectionMode::Lazy
1575             }
1576         }
1577         None => TransItemCollectionMode::Lazy
1578     };
1579
1580     let (items, inlining_map) =
1581         time(time_passes, "translation item collection", || {
1582             collector::collect_crate_translation_items(&scx, collection_mode)
1583     });
1584
1585     let symbol_map = SymbolMap::build(scx, items.iter().cloned());
1586
1587     let strategy = if scx.sess().opts.debugging_opts.incremental.is_some() {
1588         PartitioningStrategy::PerModule
1589     } else {
1590         PartitioningStrategy::FixedUnitCount(scx.sess().opts.cg.codegen_units)
1591     };
1592
1593     let codegen_units = time(time_passes, "codegen unit partitioning", || {
1594         partitioning::partition(scx,
1595                                 items.iter().cloned(),
1596                                 strategy,
1597                                 &inlining_map)
1598     });
1599
1600     assert!(scx.tcx().sess.opts.cg.codegen_units == codegen_units.len() ||
1601             scx.tcx().sess.opts.debugging_opts.incremental.is_some());
1602
1603     {
1604         let mut ccx_map = scx.translation_items().borrow_mut();
1605
1606         for trans_item in items.iter().cloned() {
1607             ccx_map.insert(trans_item);
1608         }
1609     }
1610
1611     if scx.sess().opts.debugging_opts.print_trans_items.is_some() {
1612         let mut item_to_cgus = FxHashMap();
1613
1614         for cgu in &codegen_units {
1615             for (&trans_item, &linkage) in cgu.items() {
1616                 item_to_cgus.entry(trans_item)
1617                             .or_insert(Vec::new())
1618                             .push((cgu.name().clone(), linkage));
1619             }
1620         }
1621
1622         let mut item_keys: Vec<_> = items
1623             .iter()
1624             .map(|i| {
1625                 let mut output = i.to_string(scx.tcx());
1626                 output.push_str(" @@");
1627                 let mut empty = Vec::new();
1628                 let mut cgus = item_to_cgus.get_mut(i).unwrap_or(&mut empty);
1629                 cgus.as_mut_slice().sort_by_key(|&(ref name, _)| name.clone());
1630                 cgus.dedup();
1631                 for &(ref cgu_name, linkage) in cgus.iter() {
1632                     output.push_str(" ");
1633                     output.push_str(&cgu_name[..]);
1634
1635                     let linkage_abbrev = match linkage {
1636                         llvm::Linkage::ExternalLinkage => "External",
1637                         llvm::Linkage::AvailableExternallyLinkage => "Available",
1638                         llvm::Linkage::LinkOnceAnyLinkage => "OnceAny",
1639                         llvm::Linkage::LinkOnceODRLinkage => "OnceODR",
1640                         llvm::Linkage::WeakAnyLinkage => "WeakAny",
1641                         llvm::Linkage::WeakODRLinkage => "WeakODR",
1642                         llvm::Linkage::AppendingLinkage => "Appending",
1643                         llvm::Linkage::InternalLinkage => "Internal",
1644                         llvm::Linkage::PrivateLinkage => "Private",
1645                         llvm::Linkage::ExternalWeakLinkage => "ExternalWeak",
1646                         llvm::Linkage::CommonLinkage => "Common",
1647                     };
1648
1649                     output.push_str("[");
1650                     output.push_str(linkage_abbrev);
1651                     output.push_str("]");
1652                 }
1653                 output
1654             })
1655             .collect();
1656
1657         item_keys.sort();
1658
1659         for item in item_keys {
1660             println!("TRANS_ITEM {}", item);
1661         }
1662     }
1663
1664     (codegen_units, symbol_map)
1665 }