]> git.lizzy.rs Git - rust.git/blob - src/librustc_trans/trans/common.rs
b599f3a779bb596527a0032723d6034dabeb27d4
[rust.git] / src / librustc_trans / trans / common.rs
1 // Copyright 2012-2014 The Rust Project Developers. See the COPYRIGHT
2 // file at the top-level directory of this distribution and at
3 // http://rust-lang.org/COPYRIGHT.
4 //
5 // Licensed under the Apache License, Version 2.0 <LICENSE-APACHE or
6 // http://www.apache.org/licenses/LICENSE-2.0> or the MIT license
7 // <LICENSE-MIT or http://opensource.org/licenses/MIT>, at your
8 // option. This file may not be copied, modified, or distributed
9 // except according to those terms.
10
11 #![allow(non_camel_case_types, non_snake_case)]
12
13 //! Code that is useful in various trans modules.
14
15 pub use self::ExprOrMethodCall::*;
16
17 use session::Session;
18 use llvm;
19 use llvm::{ValueRef, BasicBlockRef, BuilderRef, ContextRef};
20 use llvm::{True, False, Bool};
21 use middle::cfg;
22 use middle::def;
23 use middle::infer;
24 use middle::lang_items::LangItem;
25 use middle::mem_categorization as mc;
26 use middle::region;
27 use middle::subst::{self, Subst, Substs};
28 use trans::base;
29 use trans::build;
30 use trans::cleanup;
31 use trans::consts;
32 use trans::datum;
33 use trans::debuginfo::{self, DebugLoc};
34 use trans::machine;
35 use trans::monomorphize;
36 use trans::type_::Type;
37 use trans::type_of;
38 use middle::traits;
39 use middle::ty::{self, HasProjectionTypes, Ty};
40 use middle::ty_fold;
41 use middle::ty_fold::{TypeFolder, TypeFoldable};
42 use util::ppaux::Repr;
43 use util::nodemap::{FnvHashMap, NodeMap};
44
45 use arena::TypedArena;
46 use libc::{c_uint, c_char};
47 use std::ffi::CString;
48 use std::cell::{Cell, RefCell};
49 use std::vec::Vec;
50 use syntax::ast::Ident;
51 use syntax::ast;
52 use syntax::ast_map::{PathElem, PathName};
53 use syntax::codemap::{DUMMY_SP, Span};
54 use syntax::parse::token::InternedString;
55 use syntax::parse::token;
56 use util::common::memoized;
57 use util::nodemap::FnvHashSet;
58
59 pub use trans::context::CrateContext;
60
61 /// Returns an equivalent value with all free regions removed (note
62 /// that late-bound regions remain, because they are important for
63 /// subtyping, but they are anonymized and normalized as well). This
64 /// is a stronger, caching version of `ty_fold::erase_regions`.
65 pub fn erase_regions<'tcx,T>(cx: &ty::ctxt<'tcx>, value: &T) -> T
66     where T : TypeFoldable<'tcx> + Repr<'tcx>
67 {
68     let value1 = value.fold_with(&mut RegionEraser(cx));
69     debug!("erase_regions({}) = {}",
70            value.repr(cx), value1.repr(cx));
71     return value1;
72
73     struct RegionEraser<'a, 'tcx: 'a>(&'a ty::ctxt<'tcx>);
74
75     impl<'a, 'tcx> TypeFolder<'tcx> for RegionEraser<'a, 'tcx> {
76         fn tcx(&self) -> &ty::ctxt<'tcx> { self.0 }
77
78         fn fold_ty(&mut self, ty: Ty<'tcx>) -> Ty<'tcx> {
79             match self.tcx().normalized_cache.borrow().get(&ty).cloned() {
80                 None => {}
81                 Some(u) => return u
82             }
83
84             let t_norm = ty_fold::super_fold_ty(self, ty);
85             self.tcx().normalized_cache.borrow_mut().insert(ty, t_norm);
86             return t_norm;
87         }
88
89         fn fold_binder<T>(&mut self, t: &ty::Binder<T>) -> ty::Binder<T>
90             where T : TypeFoldable<'tcx> + Repr<'tcx>
91         {
92             let u = ty::anonymize_late_bound_regions(self.tcx(), t);
93             ty_fold::super_fold_binder(self, &u)
94         }
95
96         fn fold_region(&mut self, r: ty::Region) -> ty::Region {
97             // because late-bound regions affect subtyping, we can't
98             // erase the bound/free distinction, but we can replace
99             // all free regions with 'static.
100             //
101             // Note that we *CAN* replace early-bound regions -- the
102             // type system never "sees" those, they get substituted
103             // away. In trans, they will always be erased to 'static
104             // whenever a substitution occurs.
105             match r {
106                 ty::ReLateBound(..) => r,
107                 _ => ty::ReStatic
108             }
109         }
110
111         fn fold_substs(&mut self,
112                        substs: &subst::Substs<'tcx>)
113                        -> subst::Substs<'tcx> {
114             subst::Substs { regions: subst::ErasedRegions,
115                             types: substs.types.fold_with(self) }
116         }
117     }
118 }
119
120 // Is the type's representation size known at compile time?
121 pub fn type_is_sized<'tcx>(tcx: &ty::ctxt<'tcx>, ty: Ty<'tcx>) -> bool {
122     let param_env = ty::empty_parameter_environment(tcx);
123     ty::type_is_sized(&param_env, DUMMY_SP, ty)
124 }
125
126 pub fn lltype_is_sized<'tcx>(cx: &ty::ctxt<'tcx>, ty: Ty<'tcx>) -> bool {
127     match ty.sty {
128         ty::ty_open(_) => true,
129         _ => type_is_sized(cx, ty),
130     }
131 }
132
133 pub fn type_is_fat_ptr<'tcx>(cx: &ty::ctxt<'tcx>, ty: Ty<'tcx>) -> bool {
134     match ty.sty {
135         ty::ty_ptr(ty::mt{ty, ..}) |
136         ty::ty_rptr(_, ty::mt{ty, ..}) |
137         ty::ty_uniq(ty) => {
138             !type_is_sized(cx, ty)
139         }
140         _ => {
141             false
142         }
143     }
144 }
145
146 // Return the smallest part of `ty` which is unsized. Fails if `ty` is sized.
147 // 'Smallest' here means component of the static representation of the type; not
148 // the size of an object at runtime.
149 pub fn unsized_part_of_type<'tcx>(cx: &ty::ctxt<'tcx>, ty: Ty<'tcx>) -> Ty<'tcx> {
150     match ty.sty {
151         ty::ty_str | ty::ty_trait(..) | ty::ty_vec(..) => ty,
152         ty::ty_struct(def_id, substs) => {
153             let unsized_fields: Vec<_> =
154                 ty::struct_fields(cx, def_id, substs)
155                 .iter()
156                 .map(|f| f.mt.ty)
157                 .filter(|ty| !type_is_sized(cx, *ty))
158                 .collect();
159
160             // Exactly one of the fields must be unsized.
161             assert!(unsized_fields.len() == 1);
162
163             unsized_part_of_type(cx, unsized_fields[0])
164         }
165         _ => {
166             assert!(type_is_sized(cx, ty),
167                     "unsized_part_of_type failed even though ty is unsized");
168             panic!("called unsized_part_of_type with sized ty");
169         }
170     }
171 }
172
173 // Some things don't need cleanups during unwinding because the
174 // task can free them all at once later. Currently only things
175 // that only contain scalars and shared boxes can avoid unwind
176 // cleanups.
177 pub fn type_needs_unwind_cleanup<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>, ty: Ty<'tcx>) -> bool {
178     return memoized(ccx.needs_unwind_cleanup_cache(), ty, |ty| {
179         type_needs_unwind_cleanup_(ccx.tcx(), ty, &mut FnvHashSet())
180     });
181
182     fn type_needs_unwind_cleanup_<'tcx>(tcx: &ty::ctxt<'tcx>,
183                                         ty: Ty<'tcx>,
184                                         tycache: &mut FnvHashSet<Ty<'tcx>>)
185                                         -> bool
186     {
187         // Prevent infinite recursion
188         if !tycache.insert(ty) {
189             return false;
190         }
191
192         let mut needs_unwind_cleanup = false;
193         ty::maybe_walk_ty(ty, |ty| {
194             needs_unwind_cleanup |= match ty.sty {
195                 ty::ty_bool | ty::ty_int(_) | ty::ty_uint(_) |
196                 ty::ty_float(_) | ty::ty_tup(_) | ty::ty_ptr(_) => false,
197
198                 ty::ty_enum(did, substs) =>
199                     ty::enum_variants(tcx, did).iter().any(|v|
200                         v.args.iter().any(|&aty| {
201                             let t = aty.subst(tcx, substs);
202                             type_needs_unwind_cleanup_(tcx, t, tycache)
203                         })
204                     ),
205
206                 _ => true
207             };
208             !needs_unwind_cleanup
209         });
210         needs_unwind_cleanup
211     }
212 }
213
214 pub fn type_needs_drop<'tcx>(cx: &ty::ctxt<'tcx>,
215                          ty: Ty<'tcx>)
216                          -> bool {
217     ty::type_contents(cx, ty).needs_drop(cx)
218 }
219
220 fn type_is_newtype_immediate<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>, ty: Ty<'tcx>) -> bool {
221     match ty.sty {
222         ty::ty_struct(def_id, substs) => {
223             let fields = ty::lookup_struct_fields(ccx.tcx(), def_id);
224             fields.len() == 1 && {
225                 let ty = ty::lookup_field_type(ccx.tcx(), def_id, fields[0].id, substs);
226                 let ty = monomorphize::normalize_associated_type(ccx.tcx(), &ty);
227                 type_is_immediate(ccx, ty)
228             }
229         }
230         _ => false
231     }
232 }
233
234 pub fn type_is_immediate<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>, ty: Ty<'tcx>) -> bool {
235     use trans::machine::llsize_of_alloc;
236     use trans::type_of::sizing_type_of;
237
238     let tcx = ccx.tcx();
239     let simple = ty::type_is_scalar(ty) ||
240         ty::type_is_unique(ty) || ty::type_is_region_ptr(ty) ||
241         type_is_newtype_immediate(ccx, ty) ||
242         ty::type_is_simd(tcx, ty);
243     if simple && !type_is_fat_ptr(tcx, ty) {
244         return true;
245     }
246     if !type_is_sized(tcx, ty) {
247         return false;
248     }
249     match ty.sty {
250         ty::ty_struct(..) | ty::ty_enum(..) | ty::ty_tup(..) | ty::ty_vec(_, Some(_)) |
251         ty::ty_closure(..) => {
252             let llty = sizing_type_of(ccx, ty);
253             llsize_of_alloc(ccx, llty) <= llsize_of_alloc(ccx, ccx.int_type())
254         }
255         _ => type_is_zero_size(ccx, ty)
256     }
257 }
258
259 /// Identify types which have size zero at runtime.
260 pub fn type_is_zero_size<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>, ty: Ty<'tcx>) -> bool {
261     use trans::machine::llsize_of_alloc;
262     use trans::type_of::sizing_type_of;
263     let llty = sizing_type_of(ccx, ty);
264     llsize_of_alloc(ccx, llty) == 0
265 }
266
267 /// Identifies types which we declare to be equivalent to `void` in C for the purpose of function
268 /// return types. These are `()`, bot, and uninhabited enums. Note that all such types are also
269 /// zero-size, but not all zero-size types use a `void` return type (in order to aid with C ABI
270 /// compatibility).
271 pub fn return_type_is_void(ccx: &CrateContext, ty: Ty) -> bool {
272     ty::type_is_nil(ty) || ty::type_is_empty(ccx.tcx(), ty)
273 }
274
275 /// Generates a unique symbol based off the name given. This is used to create
276 /// unique symbols for things like closures.
277 pub fn gensym_name(name: &str) -> PathElem {
278     let num = token::gensym(name).usize();
279     // use one colon which will get translated to a period by the mangler, and
280     // we're guaranteed that `num` is globally unique for this crate.
281     PathName(token::gensym(&format!("{}:{}", name, num)[]))
282 }
283
284 #[derive(Copy)]
285 pub struct tydesc_info<'tcx> {
286     pub ty: Ty<'tcx>,
287     pub tydesc: ValueRef,
288     pub size: ValueRef,
289     pub align: ValueRef,
290     pub name: ValueRef,
291 }
292
293 /*
294 * A note on nomenclature of linking: "extern", "foreign", and "upcall".
295 *
296 * An "extern" is an LLVM symbol we wind up emitting an undefined external
297 * reference to. This means "we don't have the thing in this compilation unit,
298 * please make sure you link it in at runtime". This could be a reference to
299 * C code found in a C library, or rust code found in a rust crate.
300 *
301 * Most "externs" are implicitly declared (automatically) as a result of a
302 * user declaring an extern _module_ dependency; this causes the rust driver
303 * to locate an extern crate, scan its compilation metadata, and emit extern
304 * declarations for any symbols used by the declaring crate.
305 *
306 * A "foreign" is an extern that references C (or other non-rust ABI) code.
307 * There is no metadata to scan for extern references so in these cases either
308 * a header-digester like bindgen, or manual function prototypes, have to
309 * serve as declarators. So these are usually given explicitly as prototype
310 * declarations, in rust code, with ABI attributes on them noting which ABI to
311 * link via.
312 *
313 * An "upcall" is a foreign call generated by the compiler (not corresponding
314 * to any user-written call in the code) into the runtime library, to perform
315 * some helper task such as bringing a task to life, allocating memory, etc.
316 *
317 */
318
319 #[derive(Copy)]
320 pub struct NodeIdAndSpan {
321     pub id: ast::NodeId,
322     pub span: Span,
323 }
324
325 pub fn expr_info(expr: &ast::Expr) -> NodeIdAndSpan {
326     NodeIdAndSpan { id: expr.id, span: expr.span }
327 }
328
329 pub struct BuilderRef_res {
330     pub b: BuilderRef,
331 }
332
333 impl Drop for BuilderRef_res {
334     fn drop(&mut self) {
335         unsafe {
336             llvm::LLVMDisposeBuilder(self.b);
337         }
338     }
339 }
340
341 pub fn BuilderRef_res(b: BuilderRef) -> BuilderRef_res {
342     BuilderRef_res {
343         b: b
344     }
345 }
346
347 pub type ExternMap = FnvHashMap<String, ValueRef>;
348
349 pub fn validate_substs(substs: &Substs) {
350     assert!(substs.types.all(|t| !ty::type_needs_infer(*t)));
351 }
352
353 // work around bizarre resolve errors
354 type RvalueDatum<'tcx> = datum::Datum<'tcx, datum::Rvalue>;
355 type LvalueDatum<'tcx> = datum::Datum<'tcx, datum::Lvalue>;
356
357 // Function context.  Every LLVM function we create will have one of
358 // these.
359 pub struct FunctionContext<'a, 'tcx: 'a> {
360     // The ValueRef returned from a call to llvm::LLVMAddFunction; the
361     // address of the first instruction in the sequence of
362     // instructions for this function that will go in the .text
363     // section of the executable we're generating.
364     pub llfn: ValueRef,
365
366     // always an empty parameter-environment
367     pub param_env: ty::ParameterEnvironment<'a, 'tcx>,
368
369     // The environment argument in a closure.
370     pub llenv: Option<ValueRef>,
371
372     // A pointer to where to store the return value. If the return type is
373     // immediate, this points to an alloca in the function. Otherwise, it's a
374     // pointer to the hidden first parameter of the function. After function
375     // construction, this should always be Some.
376     pub llretslotptr: Cell<Option<ValueRef>>,
377
378     // These pub elements: "hoisted basic blocks" containing
379     // administrative activities that have to happen in only one place in
380     // the function, due to LLVM's quirks.
381     // A marker for the place where we want to insert the function's static
382     // allocas, so that LLVM will coalesce them into a single alloca call.
383     pub alloca_insert_pt: Cell<Option<ValueRef>>,
384     pub llreturn: Cell<Option<BasicBlockRef>>,
385
386     // If the function has any nested return's, including something like:
387     // fn foo() -> Option<Foo> { Some(Foo { x: return None }) }, then
388     // we use a separate alloca for each return
389     pub needs_ret_allocas: bool,
390
391     // The a value alloca'd for calls to upcalls.rust_personality. Used when
392     // outputting the resume instruction.
393     pub personality: Cell<Option<ValueRef>>,
394
395     // True if the caller expects this fn to use the out pointer to
396     // return. Either way, your code should write into the slot llretslotptr
397     // points to, but if this value is false, that slot will be a local alloca.
398     pub caller_expects_out_pointer: bool,
399
400     // Maps the DefId's for local variables to the allocas created for
401     // them in llallocas.
402     pub lllocals: RefCell<NodeMap<LvalueDatum<'tcx>>>,
403
404     // Same as above, but for closure upvars
405     pub llupvars: RefCell<NodeMap<ValueRef>>,
406
407     // The NodeId of the function, or -1 if it doesn't correspond to
408     // a user-defined function.
409     pub id: ast::NodeId,
410
411     // If this function is being monomorphized, this contains the type
412     // substitutions used.
413     pub param_substs: &'a Substs<'tcx>,
414
415     // The source span and nesting context where this function comes from, for
416     // error reporting and symbol generation.
417     pub span: Option<Span>,
418
419     // The arena that blocks are allocated from.
420     pub block_arena: &'a TypedArena<BlockS<'a, 'tcx>>,
421
422     // This function's enclosing crate context.
423     pub ccx: &'a CrateContext<'a, 'tcx>,
424
425     // Used and maintained by the debuginfo module.
426     pub debug_context: debuginfo::FunctionDebugContext,
427
428     // Cleanup scopes.
429     pub scopes: RefCell<Vec<cleanup::CleanupScope<'a, 'tcx>>>,
430
431     pub cfg: Option<cfg::CFG>,
432 }
433
434 impl<'a, 'tcx> FunctionContext<'a, 'tcx> {
435     pub fn arg_pos(&self, arg: uint) -> uint {
436         let arg = self.env_arg_pos() + arg;
437         if self.llenv.is_some() {
438             arg + 1
439         } else {
440             arg
441         }
442     }
443
444     pub fn env_arg_pos(&self) -> uint {
445         if self.caller_expects_out_pointer {
446             1u
447         } else {
448             0u
449         }
450     }
451
452     pub fn cleanup(&self) {
453         unsafe {
454             llvm::LLVMInstructionEraseFromParent(self.alloca_insert_pt
455                                                      .get()
456                                                      .unwrap());
457         }
458     }
459
460     pub fn get_llreturn(&self) -> BasicBlockRef {
461         if self.llreturn.get().is_none() {
462
463             self.llreturn.set(Some(unsafe {
464                 llvm::LLVMAppendBasicBlockInContext(self.ccx.llcx(), self.llfn,
465                                                     "return\0".as_ptr() as *const _)
466             }))
467         }
468
469         self.llreturn.get().unwrap()
470     }
471
472     pub fn get_ret_slot(&self, bcx: Block<'a, 'tcx>,
473                         output: ty::FnOutput<'tcx>,
474                         name: &str) -> ValueRef {
475         if self.needs_ret_allocas {
476             base::alloca_no_lifetime(bcx, match output {
477                 ty::FnConverging(output_type) => type_of::type_of(bcx.ccx(), output_type),
478                 ty::FnDiverging => Type::void(bcx.ccx())
479             }, name)
480         } else {
481             self.llretslotptr.get().unwrap()
482         }
483     }
484
485     pub fn new_block(&'a self,
486                      is_lpad: bool,
487                      name: &str,
488                      opt_node_id: Option<ast::NodeId>)
489                      -> Block<'a, 'tcx> {
490         unsafe {
491             let name = CString::from_slice(name.as_bytes());
492             let llbb = llvm::LLVMAppendBasicBlockInContext(self.ccx.llcx(),
493                                                            self.llfn,
494                                                            name.as_ptr());
495             BlockS::new(llbb, is_lpad, opt_node_id, self)
496         }
497     }
498
499     pub fn new_id_block(&'a self,
500                         name: &str,
501                         node_id: ast::NodeId)
502                         -> Block<'a, 'tcx> {
503         self.new_block(false, name, Some(node_id))
504     }
505
506     pub fn new_temp_block(&'a self,
507                           name: &str)
508                           -> Block<'a, 'tcx> {
509         self.new_block(false, name, None)
510     }
511
512     pub fn join_blocks(&'a self,
513                        id: ast::NodeId,
514                        in_cxs: &[Block<'a, 'tcx>])
515                        -> Block<'a, 'tcx> {
516         let out = self.new_id_block("join", id);
517         let mut reachable = false;
518         for bcx in in_cxs.iter() {
519             if !bcx.unreachable.get() {
520                 build::Br(*bcx, out.llbb, DebugLoc::None);
521                 reachable = true;
522             }
523         }
524         if !reachable {
525             build::Unreachable(out);
526         }
527         return out;
528     }
529
530     pub fn monomorphize<T>(&self, value: &T) -> T
531         where T : TypeFoldable<'tcx> + Repr<'tcx> + HasProjectionTypes + Clone
532     {
533         monomorphize::apply_param_substs(self.ccx.tcx(),
534                                          self.param_substs,
535                                          value)
536     }
537 }
538
539 // Basic block context.  We create a block context for each basic block
540 // (single-entry, single-exit sequence of instructions) we generate from Rust
541 // code.  Each basic block we generate is attached to a function, typically
542 // with many basic blocks per function.  All the basic blocks attached to a
543 // function are organized as a directed graph.
544 pub struct BlockS<'blk, 'tcx: 'blk> {
545     // The BasicBlockRef returned from a call to
546     // llvm::LLVMAppendBasicBlock(llfn, name), which adds a basic
547     // block to the function pointed to by llfn.  We insert
548     // instructions into that block by way of this block context.
549     // The block pointing to this one in the function's digraph.
550     pub llbb: BasicBlockRef,
551     pub terminated: Cell<bool>,
552     pub unreachable: Cell<bool>,
553
554     // Is this block part of a landing pad?
555     pub is_lpad: bool,
556
557     // AST node-id associated with this block, if any. Used for
558     // debugging purposes only.
559     pub opt_node_id: Option<ast::NodeId>,
560
561     // The function context for the function to which this block is
562     // attached.
563     pub fcx: &'blk FunctionContext<'blk, 'tcx>,
564 }
565
566 pub type Block<'blk, 'tcx> = &'blk BlockS<'blk, 'tcx>;
567
568 impl<'blk, 'tcx> BlockS<'blk, 'tcx> {
569     pub fn new(llbb: BasicBlockRef,
570                is_lpad: bool,
571                opt_node_id: Option<ast::NodeId>,
572                fcx: &'blk FunctionContext<'blk, 'tcx>)
573                -> Block<'blk, 'tcx> {
574         fcx.block_arena.alloc(BlockS {
575             llbb: llbb,
576             terminated: Cell::new(false),
577             unreachable: Cell::new(false),
578             is_lpad: is_lpad,
579             opt_node_id: opt_node_id,
580             fcx: fcx
581         })
582     }
583
584     pub fn ccx(&self) -> &'blk CrateContext<'blk, 'tcx> {
585         self.fcx.ccx
586     }
587     pub fn tcx(&self) -> &'blk ty::ctxt<'tcx> {
588         self.fcx.ccx.tcx()
589     }
590     pub fn sess(&self) -> &'blk Session { self.fcx.ccx.sess() }
591
592     pub fn ident(&self, ident: Ident) -> String {
593         token::get_ident(ident).get().to_string()
594     }
595
596     pub fn node_id_to_string(&self, id: ast::NodeId) -> String {
597         self.tcx().map.node_to_string(id).to_string()
598     }
599
600     pub fn expr_to_string(&self, e: &ast::Expr) -> String {
601         e.repr(self.tcx())
602     }
603
604     pub fn def(&self, nid: ast::NodeId) -> def::Def {
605         match self.tcx().def_map.borrow().get(&nid) {
606             Some(v) => v.clone(),
607             None => {
608                 self.tcx().sess.bug(&format!(
609                     "no def associated with node id {}", nid)[]);
610             }
611         }
612     }
613
614     pub fn val_to_string(&self, val: ValueRef) -> String {
615         self.ccx().tn().val_to_string(val)
616     }
617
618     pub fn llty_str(&self, ty: Type) -> String {
619         self.ccx().tn().type_to_string(ty)
620     }
621
622     pub fn ty_to_string(&self, t: Ty<'tcx>) -> String {
623         t.repr(self.tcx())
624     }
625
626     pub fn to_str(&self) -> String {
627         format!("[block {:p}]", self)
628     }
629
630     pub fn monomorphize<T>(&self, value: &T) -> T
631         where T : TypeFoldable<'tcx> + Repr<'tcx> + HasProjectionTypes + Clone
632     {
633         monomorphize::apply_param_substs(self.tcx(),
634                                          self.fcx.param_substs,
635                                          value)
636     }
637 }
638
639 impl<'blk, 'tcx> mc::Typer<'tcx> for BlockS<'blk, 'tcx> {
640     fn tcx<'a>(&'a self) -> &'a ty::ctxt<'tcx> {
641         self.tcx()
642     }
643
644     fn node_ty(&self, id: ast::NodeId) -> mc::McResult<Ty<'tcx>> {
645         Ok(node_id_type(self, id))
646     }
647
648     fn expr_ty_adjusted(&self, expr: &ast::Expr) -> mc::McResult<Ty<'tcx>> {
649         Ok(expr_ty_adjusted(self, expr))
650     }
651
652     fn node_method_ty(&self, method_call: ty::MethodCall) -> Option<Ty<'tcx>> {
653         self.tcx()
654             .method_map
655             .borrow()
656             .get(&method_call)
657             .map(|method| monomorphize_type(self, method.ty))
658     }
659
660     fn node_method_origin(&self, method_call: ty::MethodCall)
661                           -> Option<ty::MethodOrigin<'tcx>>
662     {
663         self.tcx()
664             .method_map
665             .borrow()
666             .get(&method_call)
667             .map(|method| method.origin.clone())
668     }
669
670     fn adjustments<'a>(&'a self) -> &'a RefCell<NodeMap<ty::AutoAdjustment<'tcx>>> {
671         &self.tcx().adjustments
672     }
673
674     fn is_method_call(&self, id: ast::NodeId) -> bool {
675         self.tcx().method_map.borrow().contains_key(&ty::MethodCall::expr(id))
676     }
677
678     fn temporary_scope(&self, rvalue_id: ast::NodeId) -> Option<region::CodeExtent> {
679         self.tcx().region_maps.temporary_scope(rvalue_id)
680     }
681
682     fn upvar_capture(&self, upvar_id: ty::UpvarId) -> Option<ty::UpvarCapture> {
683         Some(self.tcx().upvar_capture_map.borrow()[upvar_id].clone())
684     }
685
686     fn type_moves_by_default(&self, span: Span, ty: Ty<'tcx>) -> bool {
687         self.fcx.param_env.type_moves_by_default(span, ty)
688     }
689 }
690
691 impl<'blk, 'tcx> ty::ClosureTyper<'tcx> for BlockS<'blk, 'tcx> {
692     fn param_env<'a>(&'a self) -> &'a ty::ParameterEnvironment<'a, 'tcx> {
693         &self.fcx.param_env
694     }
695
696     fn closure_kind(&self,
697                     def_id: ast::DefId)
698                     -> Option<ty::ClosureKind>
699     {
700         let typer = NormalizingClosureTyper::new(self.tcx());
701         typer.closure_kind(def_id)
702     }
703
704     fn closure_type(&self,
705                     def_id: ast::DefId,
706                     substs: &subst::Substs<'tcx>)
707                     -> ty::ClosureTy<'tcx>
708     {
709         let typer = NormalizingClosureTyper::new(self.tcx());
710         typer.closure_type(def_id, substs)
711     }
712
713     fn closure_upvars(&self,
714                       def_id: ast::DefId,
715                       substs: &Substs<'tcx>)
716                       -> Option<Vec<ty::ClosureUpvar<'tcx>>>
717     {
718         let typer = NormalizingClosureTyper::new(self.tcx());
719         typer.closure_upvars(def_id, substs)
720     }
721 }
722
723 pub struct Result<'blk, 'tcx: 'blk> {
724     pub bcx: Block<'blk, 'tcx>,
725     pub val: ValueRef
726 }
727
728 impl<'b, 'tcx> Result<'b, 'tcx> {
729     pub fn new(bcx: Block<'b, 'tcx>, val: ValueRef) -> Result<'b, 'tcx> {
730         Result {
731             bcx: bcx,
732             val: val,
733         }
734     }
735 }
736
737 pub fn val_ty(v: ValueRef) -> Type {
738     unsafe {
739         Type::from_ref(llvm::LLVMTypeOf(v))
740     }
741 }
742
743 // LLVM constant constructors.
744 pub fn C_null(t: Type) -> ValueRef {
745     unsafe {
746         llvm::LLVMConstNull(t.to_ref())
747     }
748 }
749
750 pub fn C_undef(t: Type) -> ValueRef {
751     unsafe {
752         llvm::LLVMGetUndef(t.to_ref())
753     }
754 }
755
756 pub fn C_integral(t: Type, u: u64, sign_extend: bool) -> ValueRef {
757     unsafe {
758         llvm::LLVMConstInt(t.to_ref(), u, sign_extend as Bool)
759     }
760 }
761
762 pub fn C_floating(s: &str, t: Type) -> ValueRef {
763     unsafe {
764         let s = CString::from_slice(s.as_bytes());
765         llvm::LLVMConstRealOfString(t.to_ref(), s.as_ptr())
766     }
767 }
768
769 pub fn C_nil(ccx: &CrateContext) -> ValueRef {
770     C_struct(ccx, &[], false)
771 }
772
773 pub fn C_bool(ccx: &CrateContext, val: bool) -> ValueRef {
774     C_integral(Type::i1(ccx), val as u64, false)
775 }
776
777 pub fn C_i32(ccx: &CrateContext, i: i32) -> ValueRef {
778     C_integral(Type::i32(ccx), i as u64, true)
779 }
780
781 pub fn C_u64(ccx: &CrateContext, i: u64) -> ValueRef {
782     C_integral(Type::i64(ccx), i, false)
783 }
784
785 pub fn C_int<I: AsI64>(ccx: &CrateContext, i: I) -> ValueRef {
786     let v = i.as_i64();
787
788     match machine::llbitsize_of_real(ccx, ccx.int_type()) {
789         32 => assert!(v < (1<<31) && v >= -(1<<31)),
790         64 => {},
791         n => panic!("unsupported target size: {}", n)
792     }
793
794     C_integral(ccx.int_type(), v as u64, true)
795 }
796
797 pub fn C_uint<I: AsU64>(ccx: &CrateContext, i: I) -> ValueRef {
798     let v = i.as_u64();
799
800     match machine::llbitsize_of_real(ccx, ccx.int_type()) {
801         32 => assert!(v < (1<<32)),
802         64 => {},
803         n => panic!("unsupported target size: {}", n)
804     }
805
806     C_integral(ccx.int_type(), v, false)
807 }
808
809 pub trait AsI64 { fn as_i64(self) -> i64; }
810 pub trait AsU64 { fn as_u64(self) -> u64; }
811
812 // FIXME: remove the intptr conversions, because they
813 // are host-architecture-dependent
814 impl AsI64 for i64 { fn as_i64(self) -> i64 { self as i64 }}
815 impl AsI64 for i32 { fn as_i64(self) -> i64 { self as i64 }}
816 impl AsI64 for int { fn as_i64(self) -> i64 { self as i64 }}
817
818 impl AsU64 for u64  { fn as_u64(self) -> u64 { self as u64 }}
819 impl AsU64 for u32  { fn as_u64(self) -> u64 { self as u64 }}
820 impl AsU64 for uint { fn as_u64(self) -> u64 { self as u64 }}
821
822 pub fn C_u8(ccx: &CrateContext, i: uint) -> ValueRef {
823     C_integral(Type::i8(ccx), i as u64, false)
824 }
825
826
827 // This is a 'c-like' raw string, which differs from
828 // our boxed-and-length-annotated strings.
829 pub fn C_cstr(cx: &CrateContext, s: InternedString, null_terminated: bool) -> ValueRef {
830     unsafe {
831         match cx.const_cstr_cache().borrow().get(&s) {
832             Some(&llval) => return llval,
833             None => ()
834         }
835
836         let sc = llvm::LLVMConstStringInContext(cx.llcx(),
837                                                 s.get().as_ptr() as *const c_char,
838                                                 s.get().len() as c_uint,
839                                                 !null_terminated as Bool);
840
841         let gsym = token::gensym("str");
842         let buf = CString::from_vec(format!("str{}", gsym.usize()).into_bytes());
843         let g = llvm::LLVMAddGlobal(cx.llmod(), val_ty(sc).to_ref(), buf.as_ptr());
844         llvm::LLVMSetInitializer(g, sc);
845         llvm::LLVMSetGlobalConstant(g, True);
846         llvm::SetLinkage(g, llvm::InternalLinkage);
847
848         cx.const_cstr_cache().borrow_mut().insert(s, g);
849         g
850     }
851 }
852
853 // NB: Do not use `do_spill_noroot` to make this into a constant string, or
854 // you will be kicked off fast isel. See issue #4352 for an example of this.
855 pub fn C_str_slice(cx: &CrateContext, s: InternedString) -> ValueRef {
856     let len = s.get().len();
857     let cs = consts::ptrcast(C_cstr(cx, s, false), Type::i8p(cx));
858     C_named_struct(cx.tn().find_type("str_slice").unwrap(), &[cs, C_uint(cx, len)])
859 }
860
861 pub fn C_binary_slice(cx: &CrateContext, data: &[u8]) -> ValueRef {
862     unsafe {
863         let len = data.len();
864         let lldata = C_bytes(cx, data);
865
866         let gsym = token::gensym("binary");
867         let name = format!("binary{}", gsym.usize());
868         let name = CString::from_vec(name.into_bytes());
869         let g = llvm::LLVMAddGlobal(cx.llmod(), val_ty(lldata).to_ref(),
870                                     name.as_ptr());
871         llvm::LLVMSetInitializer(g, lldata);
872         llvm::LLVMSetGlobalConstant(g, True);
873         llvm::SetLinkage(g, llvm::InternalLinkage);
874
875         let cs = consts::ptrcast(g, Type::i8p(cx));
876         C_struct(cx, &[cs, C_uint(cx, len)], false)
877     }
878 }
879
880 pub fn C_struct(cx: &CrateContext, elts: &[ValueRef], packed: bool) -> ValueRef {
881     C_struct_in_context(cx.llcx(), elts, packed)
882 }
883
884 pub fn C_struct_in_context(llcx: ContextRef, elts: &[ValueRef], packed: bool) -> ValueRef {
885     unsafe {
886         llvm::LLVMConstStructInContext(llcx,
887                                        elts.as_ptr(), elts.len() as c_uint,
888                                        packed as Bool)
889     }
890 }
891
892 pub fn C_named_struct(t: Type, elts: &[ValueRef]) -> ValueRef {
893     unsafe {
894         llvm::LLVMConstNamedStruct(t.to_ref(), elts.as_ptr(), elts.len() as c_uint)
895     }
896 }
897
898 pub fn C_array(ty: Type, elts: &[ValueRef]) -> ValueRef {
899     unsafe {
900         return llvm::LLVMConstArray(ty.to_ref(), elts.as_ptr(), elts.len() as c_uint);
901     }
902 }
903
904 pub fn C_bytes(cx: &CrateContext, bytes: &[u8]) -> ValueRef {
905     C_bytes_in_context(cx.llcx(), bytes)
906 }
907
908 pub fn C_bytes_in_context(llcx: ContextRef, bytes: &[u8]) -> ValueRef {
909     unsafe {
910         let ptr = bytes.as_ptr() as *const c_char;
911         return llvm::LLVMConstStringInContext(llcx, ptr, bytes.len() as c_uint, True);
912     }
913 }
914
915 pub fn const_get_elt(cx: &CrateContext, v: ValueRef, us: &[c_uint])
916               -> ValueRef {
917     unsafe {
918         let r = llvm::LLVMConstExtractValue(v, us.as_ptr(), us.len() as c_uint);
919
920         debug!("const_get_elt(v={}, us={:?}, r={})",
921                cx.tn().val_to_string(v), us, cx.tn().val_to_string(r));
922
923         return r;
924     }
925 }
926
927 pub fn is_const(v: ValueRef) -> bool {
928     unsafe {
929         llvm::LLVMIsConstant(v) == True
930     }
931 }
932
933 pub fn const_to_int(v: ValueRef) -> i64 {
934     unsafe {
935         llvm::LLVMConstIntGetSExtValue(v)
936     }
937 }
938
939 pub fn const_to_uint(v: ValueRef) -> u64 {
940     unsafe {
941         llvm::LLVMConstIntGetZExtValue(v)
942     }
943 }
944
945 pub fn is_undef(val: ValueRef) -> bool {
946     unsafe {
947         llvm::LLVMIsUndef(val) != False
948     }
949 }
950
951 #[allow(dead_code)] // potentially useful
952 pub fn is_null(val: ValueRef) -> bool {
953     unsafe {
954         llvm::LLVMIsNull(val) != False
955     }
956 }
957
958 pub fn monomorphize_type<'blk, 'tcx>(bcx: &BlockS<'blk, 'tcx>, t: Ty<'tcx>) -> Ty<'tcx> {
959     bcx.fcx.monomorphize(&t)
960 }
961
962 pub fn node_id_type<'blk, 'tcx>(bcx: &BlockS<'blk, 'tcx>, id: ast::NodeId) -> Ty<'tcx> {
963     let tcx = bcx.tcx();
964     let t = ty::node_id_to_type(tcx, id);
965     monomorphize_type(bcx, t)
966 }
967
968 pub fn expr_ty<'blk, 'tcx>(bcx: &BlockS<'blk, 'tcx>, ex: &ast::Expr) -> Ty<'tcx> {
969     node_id_type(bcx, ex.id)
970 }
971
972 pub fn expr_ty_adjusted<'blk, 'tcx>(bcx: &BlockS<'blk, 'tcx>, ex: &ast::Expr) -> Ty<'tcx> {
973     monomorphize_type(bcx, ty::expr_ty_adjusted(bcx.tcx(), ex))
974 }
975
976 /// Attempts to resolve an obligation. The result is a shallow vtable resolution -- meaning that we
977 /// do not (necessarily) resolve all nested obligations on the impl. Note that type check should
978 /// guarantee to us that all nested obligations *could be* resolved if we wanted to.
979 pub fn fulfill_obligation<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>,
980                                 span: Span,
981                                 trait_ref: ty::PolyTraitRef<'tcx>)
982                                 -> traits::Vtable<'tcx, ()>
983 {
984     let tcx = ccx.tcx();
985
986     // Remove any references to regions; this helps improve caching.
987     let trait_ref = erase_regions(tcx, &trait_ref);
988
989     // First check the cache.
990     match ccx.trait_cache().borrow().get(&trait_ref) {
991         Some(vtable) => {
992             info!("Cache hit: {}", trait_ref.repr(ccx.tcx()));
993             return (*vtable).clone();
994         }
995         None => { }
996     }
997
998     debug!("trans fulfill_obligation: trait_ref={}", trait_ref.repr(ccx.tcx()));
999
1000     ty::populate_implementations_for_trait_if_necessary(tcx, trait_ref.def_id());
1001     let infcx = infer::new_infer_ctxt(tcx);
1002
1003     // Do the initial selection for the obligation. This yields the
1004     // shallow result we are looking for -- that is, what specific impl.
1005     let typer = NormalizingClosureTyper::new(tcx);
1006     let mut selcx = traits::SelectionContext::new(&infcx, &typer);
1007     let obligation = traits::Obligation::new(traits::ObligationCause::dummy(),
1008                                              trait_ref.to_poly_trait_predicate());
1009     let selection = match selcx.select(&obligation) {
1010         Ok(Some(selection)) => selection,
1011         Ok(None) => {
1012             // Ambiguity can happen when monomorphizing during trans
1013             // expands to some humongo type that never occurred
1014             // statically -- this humongo type can then overflow,
1015             // leading to an ambiguous result. So report this as an
1016             // overflow bug, since I believe this is the only case
1017             // where ambiguity can result.
1018             debug!("Encountered ambiguity selecting `{}` during trans, \
1019                     presuming due to overflow",
1020                    trait_ref.repr(tcx));
1021             ccx.sess().span_fatal(
1022                 span,
1023                 "reached the recursion limit during monomorphization");
1024         }
1025         Err(e) => {
1026             tcx.sess.span_bug(
1027                 span,
1028                 &format!("Encountered error `{}` selecting `{}` during trans",
1029                         e.repr(tcx),
1030                         trait_ref.repr(tcx))[])
1031         }
1032     };
1033
1034     // Currently, we use a fulfillment context to completely resolve
1035     // all nested obligations. This is because they can inform the
1036     // inference of the impl's type parameters.
1037     let mut fulfill_cx = traits::FulfillmentContext::new();
1038     let vtable = selection.map_move_nested(|predicate| {
1039         fulfill_cx.register_predicate_obligation(&infcx, predicate);
1040     });
1041     let vtable = drain_fulfillment_cx(span, &infcx, &mut fulfill_cx, &vtable);
1042
1043     info!("Cache miss: {}", trait_ref.repr(ccx.tcx()));
1044     ccx.trait_cache().borrow_mut().insert(trait_ref,
1045                                           vtable.clone());
1046
1047     vtable
1048 }
1049
1050 pub struct NormalizingClosureTyper<'a,'tcx:'a> {
1051     param_env: ty::ParameterEnvironment<'a, 'tcx>
1052 }
1053
1054 impl<'a,'tcx> NormalizingClosureTyper<'a,'tcx> {
1055     pub fn new(tcx: &'a ty::ctxt<'tcx>) -> NormalizingClosureTyper<'a,'tcx> {
1056         // Parameter environment is used to give details about type parameters,
1057         // but since we are in trans, everything is fully monomorphized.
1058         NormalizingClosureTyper { param_env: ty::empty_parameter_environment(tcx) }
1059     }
1060 }
1061
1062 impl<'a,'tcx> ty::ClosureTyper<'tcx> for NormalizingClosureTyper<'a,'tcx> {
1063     fn param_env<'b>(&'b self) -> &'b ty::ParameterEnvironment<'b,'tcx> {
1064         &self.param_env
1065     }
1066
1067     fn closure_kind(&self,
1068                     def_id: ast::DefId)
1069                     -> Option<ty::ClosureKind>
1070     {
1071         self.param_env.closure_kind(def_id)
1072     }
1073
1074     fn closure_type(&self,
1075                     def_id: ast::DefId,
1076                     substs: &subst::Substs<'tcx>)
1077                     -> ty::ClosureTy<'tcx>
1078     {
1079         // the substitutions in `substs` are already monomorphized,
1080         // but we still must normalize associated types
1081         let closure_ty = self.param_env.tcx.closure_type(def_id, substs);
1082         monomorphize::normalize_associated_type(self.param_env.tcx, &closure_ty)
1083     }
1084
1085     fn closure_upvars(&self,
1086                       def_id: ast::DefId,
1087                       substs: &Substs<'tcx>)
1088                       -> Option<Vec<ty::ClosureUpvar<'tcx>>>
1089     {
1090         // the substitutions in `substs` are already monomorphized,
1091         // but we still must normalize associated types
1092         let result = ty::closure_upvars(&self.param_env, def_id, substs);
1093         monomorphize::normalize_associated_type(self.param_env.tcx, &result)
1094     }
1095 }
1096
1097 pub fn drain_fulfillment_cx<'a,'tcx,T>(span: Span,
1098                                    infcx: &infer::InferCtxt<'a,'tcx>,
1099                                    fulfill_cx: &mut traits::FulfillmentContext<'tcx>,
1100                                    result: &T)
1101                                    -> T
1102     where T : TypeFoldable<'tcx> + Repr<'tcx>
1103 {
1104     debug!("drain_fulfillment_cx(result={})",
1105            result.repr(infcx.tcx));
1106
1107     // In principle, we only need to do this so long as `result`
1108     // contains unbound type parameters. It could be a slight
1109     // optimization to stop iterating early.
1110     let typer = NormalizingClosureTyper::new(infcx.tcx);
1111     match fulfill_cx.select_all_or_error(infcx, &typer) {
1112         Ok(()) => { }
1113         Err(errors) => {
1114             if errors.iter().all(|e| e.is_overflow()) {
1115                 // See Ok(None) case above.
1116                 infcx.tcx.sess.span_fatal(
1117                     span,
1118                     "reached the recursion limit during monomorphization");
1119             } else {
1120                 infcx.tcx.sess.span_bug(
1121                     span,
1122                     &format!("Encountered errors `{}` fulfilling during trans",
1123                             errors.repr(infcx.tcx))[]);
1124             }
1125         }
1126     }
1127
1128     // Use freshen to simultaneously replace all type variables with
1129     // their bindings and replace all regions with 'static.  This is
1130     // sort of overkill because we do not expect there to be any
1131     // unbound type variables, hence no `TyFresh` types should ever be
1132     // inserted.
1133     result.fold_with(&mut infcx.freshener())
1134 }
1135
1136 // Key used to lookup values supplied for type parameters in an expr.
1137 #[derive(Copy, PartialEq, Debug)]
1138 pub enum ExprOrMethodCall {
1139     // Type parameters for a path like `None::<int>`
1140     ExprId(ast::NodeId),
1141
1142     // Type parameters for a method call like `a.foo::<int>()`
1143     MethodCallKey(ty::MethodCall)
1144 }
1145
1146 pub fn node_id_substs<'a, 'tcx>(ccx: &CrateContext<'a, 'tcx>,
1147                             node: ExprOrMethodCall,
1148                             param_substs: &subst::Substs<'tcx>)
1149                             -> subst::Substs<'tcx> {
1150     let tcx = ccx.tcx();
1151
1152     let substs = match node {
1153         ExprId(id) => {
1154             ty::node_id_item_substs(tcx, id).substs
1155         }
1156         MethodCallKey(method_call) => {
1157             (*tcx.method_map.borrow())[method_call].substs.clone()
1158         }
1159     };
1160
1161     if substs.types.any(|t| ty::type_needs_infer(*t)) {
1162             tcx.sess.bug(&format!("type parameters for node {:?} include inference types: {:?}",
1163                                  node, substs.repr(tcx))[]);
1164         }
1165
1166         monomorphize::apply_param_substs(tcx,
1167                                          param_substs,
1168                                          &substs.erase_regions())
1169 }
1170
1171 pub fn langcall(bcx: Block,
1172                 span: Option<Span>,
1173                 msg: &str,
1174                 li: LangItem)
1175                 -> ast::DefId {
1176     match bcx.tcx().lang_items.require(li) {
1177         Ok(id) => id,
1178         Err(s) => {
1179             let msg = format!("{} {}", msg, s);
1180             match span {
1181                 Some(span) => bcx.tcx().sess.span_fatal(span, &msg[]),
1182                 None => bcx.tcx().sess.fatal(&msg[]),
1183             }
1184         }
1185     }
1186 }