]> git.lizzy.rs Git - rust.git/blob - src/librustc/middle/liveness.rs
or-patterns: use `top_pats_hack` to make things compile.
[rust.git] / src / librustc / middle / liveness.rs
1 //! A classic liveness analysis based on dataflow over the AST. Computes,
2 //! for each local variable in a function, whether that variable is live
3 //! at a given point. Program execution points are identified by their
4 //! IDs.
5 //!
6 //! # Basic idea
7 //!
8 //! The basic model is that each local variable is assigned an index. We
9 //! represent sets of local variables using a vector indexed by this
10 //! index. The value in the vector is either 0, indicating the variable
11 //! is dead, or the ID of an expression that uses the variable.
12 //!
13 //! We conceptually walk over the AST in reverse execution order. If we
14 //! find a use of a variable, we add it to the set of live variables. If
15 //! we find an assignment to a variable, we remove it from the set of live
16 //! variables. When we have to merge two flows, we take the union of
17 //! those two flows -- if the variable is live on both paths, we simply
18 //! pick one ID. In the event of loops, we continue doing this until a
19 //! fixed point is reached.
20 //!
21 //! ## Checking initialization
22 //!
23 //! At the function entry point, all variables must be dead. If this is
24 //! not the case, we can report an error using the ID found in the set of
25 //! live variables, which identifies a use of the variable which is not
26 //! dominated by an assignment.
27 //!
28 //! ## Checking moves
29 //!
30 //! After each explicit move, the variable must be dead.
31 //!
32 //! ## Computing last uses
33 //!
34 //! Any use of the variable where the variable is dead afterwards is a
35 //! last use.
36 //!
37 //! # Implementation details
38 //!
39 //! The actual implementation contains two (nested) walks over the AST.
40 //! The outer walk has the job of building up the ir_maps instance for the
41 //! enclosing function. On the way down the tree, it identifies those AST
42 //! nodes and variable IDs that will be needed for the liveness analysis
43 //! and assigns them contiguous IDs. The liveness ID for an AST node is
44 //! called a `live_node` (it's a newtype'd `u32`) and the ID for a variable
45 //! is called a `variable` (another newtype'd `u32`).
46 //!
47 //! On the way back up the tree, as we are about to exit from a function
48 //! declaration we allocate a `liveness` instance. Now that we know
49 //! precisely how many nodes and variables we need, we can allocate all
50 //! the various arrays that we will need to precisely the right size. We then
51 //! perform the actual propagation on the `liveness` instance.
52 //!
53 //! This propagation is encoded in the various `propagate_through_*()`
54 //! methods. It effectively does a reverse walk of the AST; whenever we
55 //! reach a loop node, we iterate until a fixed point is reached.
56 //!
57 //! ## The `RWU` struct
58 //!
59 //! At each live node `N`, we track three pieces of information for each
60 //! variable `V` (these are encapsulated in the `RWU` struct):
61 //!
62 //! - `reader`: the `LiveNode` ID of some node which will read the value
63 //!    that `V` holds on entry to `N`. Formally: a node `M` such
64 //!    that there exists a path `P` from `N` to `M` where `P` does not
65 //!    write `V`. If the `reader` is `invalid_node()`, then the current
66 //!    value will never be read (the variable is dead, essentially).
67 //!
68 //! - `writer`: the `LiveNode` ID of some node which will write the
69 //!    variable `V` and which is reachable from `N`. Formally: a node `M`
70 //!    such that there exists a path `P` from `N` to `M` and `M` writes
71 //!    `V`. If the `writer` is `invalid_node()`, then there is no writer
72 //!    of `V` that follows `N`.
73 //!
74 //! - `used`: a boolean value indicating whether `V` is *used*. We
75 //!   distinguish a *read* from a *use* in that a *use* is some read that
76 //!   is not just used to generate a new value. For example, `x += 1` is
77 //!   a read but not a use. This is used to generate better warnings.
78 //!
79 //! ## Special Variables
80 //!
81 //! We generate various special variables for various, well, special purposes.
82 //! These are described in the `specials` struct:
83 //!
84 //! - `exit_ln`: a live node that is generated to represent every 'exit' from
85 //!   the function, whether it be by explicit return, panic, or other means.
86 //!
87 //! - `fallthrough_ln`: a live node that represents a fallthrough
88 //!
89 //! - `clean_exit_var`: a synthetic variable that is only 'read' from the
90 //!   fallthrough node. It is only live if the function could converge
91 //!   via means other than an explicit `return` expression. That is, it is
92 //!   only dead if the end of the function's block can never be reached.
93 //!   It is the responsibility of typeck to ensure that there are no
94 //!   `return` expressions in a function declared as diverging.
95
96 use self::LiveNodeKind::*;
97 use self::VarKind::*;
98
99 use crate::hir::def::*;
100 use crate::hir::Node;
101 use crate::hir::ptr::P;
102 use crate::ty::{self, TyCtxt};
103 use crate::ty::query::Providers;
104 use crate::lint;
105 use crate::util::nodemap::{HirIdMap, HirIdSet};
106
107 use errors::Applicability;
108 use std::collections::{BTreeMap, VecDeque};
109 use std::{fmt, u32};
110 use std::io::prelude::*;
111 use std::io;
112 use std::rc::Rc;
113 use syntax::ast;
114 use syntax::symbol::{kw, sym};
115 use syntax_pos::Span;
116
117 use crate::hir;
118 use crate::hir::{Expr, HirId};
119 use crate::hir::def_id::DefId;
120 use crate::hir::intravisit::{self, Visitor, FnKind, NestedVisitorMap};
121
122 #[derive(Copy, Clone, PartialEq)]
123 struct Variable(u32);
124
125 #[derive(Copy, Clone, PartialEq)]
126 struct LiveNode(u32);
127
128 impl Variable {
129     fn get(&self) -> usize { self.0 as usize }
130 }
131
132 impl LiveNode {
133     fn get(&self) -> usize { self.0 as usize }
134 }
135
136 #[derive(Copy, Clone, PartialEq, Debug)]
137 enum LiveNodeKind {
138     UpvarNode(Span),
139     ExprNode(Span),
140     VarDefNode(Span),
141     ExitNode
142 }
143
144 fn live_node_kind_to_string(lnk: LiveNodeKind, tcx: TyCtxt<'_>) -> String {
145     let cm = tcx.sess.source_map();
146     match lnk {
147         UpvarNode(s) => {
148             format!("Upvar node [{}]", cm.span_to_string(s))
149         }
150         ExprNode(s) => {
151             format!("Expr node [{}]", cm.span_to_string(s))
152         }
153         VarDefNode(s) => {
154             format!("Var def node [{}]", cm.span_to_string(s))
155         }
156         ExitNode => "Exit node".to_owned(),
157     }
158 }
159
160 impl<'tcx> Visitor<'tcx> for IrMaps<'tcx> {
161     fn nested_visit_map<'this>(&'this mut self) -> NestedVisitorMap<'this, 'tcx> {
162         NestedVisitorMap::OnlyBodies(&self.tcx.hir())
163     }
164
165     fn visit_fn(&mut self, fk: FnKind<'tcx>, fd: &'tcx hir::FnDecl,
166                 b: hir::BodyId, s: Span, id: HirId) {
167         visit_fn(self, fk, fd, b, s, id);
168     }
169
170     fn visit_local(&mut self, l: &'tcx hir::Local) { visit_local(self, l); }
171     fn visit_expr(&mut self, ex: &'tcx Expr) { visit_expr(self, ex); }
172     fn visit_arm(&mut self, a: &'tcx hir::Arm) { visit_arm(self, a); }
173 }
174
175 fn check_mod_liveness(tcx: TyCtxt<'_>, module_def_id: DefId) {
176     tcx.hir().visit_item_likes_in_module(
177         module_def_id,
178         &mut IrMaps::new(tcx, module_def_id).as_deep_visitor(),
179     );
180 }
181
182 pub fn provide(providers: &mut Providers<'_>) {
183     *providers = Providers {
184         check_mod_liveness,
185         ..*providers
186     };
187 }
188
189 impl fmt::Debug for LiveNode {
190     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
191         write!(f, "ln({})", self.get())
192     }
193 }
194
195 impl fmt::Debug for Variable {
196     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
197         write!(f, "v({})", self.get())
198     }
199 }
200
201 // ______________________________________________________________________
202 // Creating ir_maps
203 //
204 // This is the first pass and the one that drives the main
205 // computation.  It walks up and down the IR once.  On the way down,
206 // we count for each function the number of variables as well as
207 // liveness nodes.  A liveness node is basically an expression or
208 // capture clause that does something of interest: either it has
209 // interesting control flow or it uses/defines a local variable.
210 //
211 // On the way back up, at each function node we create liveness sets
212 // (we now know precisely how big to make our various vectors and so
213 // forth) and then do the data-flow propagation to compute the set
214 // of live variables at each program point.
215 //
216 // Finally, we run back over the IR one last time and, using the
217 // computed liveness, check various safety conditions.  For example,
218 // there must be no live nodes at the definition site for a variable
219 // unless it has an initializer.  Similarly, each non-mutable local
220 // variable must not be assigned if there is some successor
221 // assignment.  And so forth.
222
223 impl LiveNode {
224     fn is_valid(&self) -> bool {
225         self.0 != u32::MAX
226     }
227 }
228
229 fn invalid_node() -> LiveNode { LiveNode(u32::MAX) }
230
231 struct CaptureInfo {
232     ln: LiveNode,
233     var_hid: HirId
234 }
235
236 #[derive(Copy, Clone, Debug)]
237 struct LocalInfo {
238     id: HirId,
239     name: ast::Name,
240     is_shorthand: bool,
241 }
242
243 #[derive(Copy, Clone, Debug)]
244 enum VarKind {
245     Param(HirId, ast::Name),
246     Local(LocalInfo),
247     CleanExit
248 }
249
250 struct IrMaps<'tcx> {
251     tcx: TyCtxt<'tcx>,
252     body_owner: DefId,
253     num_live_nodes: usize,
254     num_vars: usize,
255     live_node_map: HirIdMap<LiveNode>,
256     variable_map: HirIdMap<Variable>,
257     capture_info_map: HirIdMap<Rc<Vec<CaptureInfo>>>,
258     var_kinds: Vec<VarKind>,
259     lnks: Vec<LiveNodeKind>,
260 }
261
262 impl IrMaps<'tcx> {
263     fn new(tcx: TyCtxt<'tcx>, body_owner: DefId) -> IrMaps<'tcx> {
264         IrMaps {
265             tcx,
266             body_owner,
267             num_live_nodes: 0,
268             num_vars: 0,
269             live_node_map: HirIdMap::default(),
270             variable_map: HirIdMap::default(),
271             capture_info_map: Default::default(),
272             var_kinds: Vec::new(),
273             lnks: Vec::new(),
274         }
275     }
276
277     fn add_live_node(&mut self, lnk: LiveNodeKind) -> LiveNode {
278         let ln = LiveNode(self.num_live_nodes as u32);
279         self.lnks.push(lnk);
280         self.num_live_nodes += 1;
281
282         debug!("{:?} is of kind {}", ln,
283                live_node_kind_to_string(lnk, self.tcx));
284
285         ln
286     }
287
288     fn add_live_node_for_node(&mut self, hir_id: HirId, lnk: LiveNodeKind) {
289         let ln = self.add_live_node(lnk);
290         self.live_node_map.insert(hir_id, ln);
291
292         debug!("{:?} is node {:?}", ln, hir_id);
293     }
294
295     fn add_variable(&mut self, vk: VarKind) -> Variable {
296         let v = Variable(self.num_vars as u32);
297         self.var_kinds.push(vk);
298         self.num_vars += 1;
299
300         match vk {
301             Local(LocalInfo { id: node_id, .. }) | Param(node_id, _) => {
302                 self.variable_map.insert(node_id, v);
303             },
304             CleanExit => {}
305         }
306
307         debug!("{:?} is {:?}", v, vk);
308
309         v
310     }
311
312     fn variable(&self, hir_id: HirId, span: Span) -> Variable {
313         match self.variable_map.get(&hir_id) {
314             Some(&var) => var,
315             None => {
316                 span_bug!(span, "no variable registered for id {:?}", hir_id);
317             }
318         }
319     }
320
321     fn variable_name(&self, var: Variable) -> String {
322         match self.var_kinds[var.get()] {
323             Local(LocalInfo { name, .. }) | Param(_, name) => {
324                 name.to_string()
325             },
326             CleanExit => "<clean-exit>".to_owned()
327         }
328     }
329
330     fn variable_is_shorthand(&self, var: Variable) -> bool {
331         match self.var_kinds[var.get()] {
332             Local(LocalInfo { is_shorthand, .. }) => is_shorthand,
333             Param(..) | CleanExit => false
334         }
335     }
336
337     fn set_captures(&mut self, hir_id: HirId, cs: Vec<CaptureInfo>) {
338         self.capture_info_map.insert(hir_id, Rc::new(cs));
339     }
340
341     fn lnk(&self, ln: LiveNode) -> LiveNodeKind {
342         self.lnks[ln.get()]
343     }
344 }
345
346 fn visit_fn<'tcx>(
347     ir: &mut IrMaps<'tcx>,
348     fk: FnKind<'tcx>,
349     decl: &'tcx hir::FnDecl,
350     body_id: hir::BodyId,
351     sp: Span,
352     id: hir::HirId,
353 ) {
354     debug!("visit_fn");
355
356     // swap in a new set of IR maps for this function body:
357     let def_id = ir.tcx.hir().local_def_id(id);
358     let mut fn_maps = IrMaps::new(ir.tcx, def_id);
359
360     // Don't run unused pass for #[derive()]
361     if let FnKind::Method(..) = fk {
362         let parent = ir.tcx.hir().get_parent_item(id);
363         if let Some(Node::Item(i)) = ir.tcx.hir().find(parent) {
364             if i.attrs.iter().any(|a| a.check_name(sym::automatically_derived)) {
365                 return;
366             }
367         }
368     }
369
370     debug!("creating fn_maps: {:p}", &fn_maps);
371
372     let body = ir.tcx.hir().body(body_id);
373
374     for param in &body.params {
375         let is_shorthand = match param.pat.node {
376             crate::hir::PatKind::Struct(..) => true,
377             _ => false,
378         };
379         param.pat.each_binding(|_bm, hir_id, _x, ident| {
380             debug!("adding parameters {:?}", hir_id);
381             let var = if is_shorthand {
382                 Local(LocalInfo {
383                     id: hir_id,
384                     name: ident.name,
385                     is_shorthand: true,
386                 })
387             } else {
388                 Param(hir_id, ident.name)
389             };
390             fn_maps.add_variable(var);
391         })
392     };
393
394     // gather up the various local variables, significant expressions,
395     // and so forth:
396     intravisit::walk_fn(&mut fn_maps, fk, decl, body_id, sp, id);
397
398     // compute liveness
399     let mut lsets = Liveness::new(&mut fn_maps, body_id);
400     let entry_ln = lsets.compute(&body.value);
401
402     // check for various error conditions
403     lsets.visit_body(body);
404     lsets.warn_about_unused_args(body, entry_ln);
405 }
406
407 fn add_from_pat<'tcx>(ir: &mut IrMaps<'tcx>, pat: &P<hir::Pat>) {
408     // For struct patterns, take note of which fields used shorthand
409     // (`x` rather than `x: x`).
410     let mut shorthand_field_ids = HirIdSet::default();
411     let mut pats = VecDeque::new();
412     pats.push_back(pat);
413     while let Some(pat) = pats.pop_front() {
414         use crate::hir::PatKind::*;
415         match pat.node {
416             Binding(_, _, _, ref inner_pat) => {
417                 pats.extend(inner_pat.iter());
418             }
419             Struct(_, ref fields, _) => {
420                 for field in fields {
421                     if field.is_shorthand {
422                         shorthand_field_ids.insert(field.pat.hir_id);
423                     }
424                 }
425             }
426             Ref(ref inner_pat, _) |
427             Box(ref inner_pat) => {
428                 pats.push_back(inner_pat);
429             }
430             TupleStruct(_, ref inner_pats, _) |
431             Tuple(ref inner_pats, _) => {
432                 pats.extend(inner_pats.iter());
433             }
434             Slice(ref pre_pats, ref inner_pat, ref post_pats) => {
435                 pats.extend(pre_pats.iter());
436                 pats.extend(inner_pat.iter());
437                 pats.extend(post_pats.iter());
438             }
439             _ => {}
440         }
441     }
442
443     pat.each_binding(|_bm, hir_id, _sp, ident| {
444         ir.add_live_node_for_node(hir_id, VarDefNode(ident.span));
445         ir.add_variable(Local(LocalInfo {
446             id: hir_id,
447             name: ident.name,
448             is_shorthand: shorthand_field_ids.contains(&hir_id)
449         }));
450     });
451 }
452
453 fn visit_local<'tcx>(ir: &mut IrMaps<'tcx>, local: &'tcx hir::Local) {
454     add_from_pat(ir, &local.pat);
455     intravisit::walk_local(ir, local);
456 }
457
458 fn visit_arm<'tcx>(ir: &mut IrMaps<'tcx>, arm: &'tcx hir::Arm) {
459     for pat in arm.top_pats_hack() {
460         add_from_pat(ir, pat);
461     }
462     intravisit::walk_arm(ir, arm);
463 }
464
465 fn visit_expr<'tcx>(ir: &mut IrMaps<'tcx>, expr: &'tcx Expr) {
466     match expr.node {
467       // live nodes required for uses or definitions of variables:
468       hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
469         debug!("expr {}: path that leads to {:?}", expr.hir_id, path.res);
470         if let Res::Local(var_hir_id) = path.res {
471             let upvars = ir.tcx.upvars(ir.body_owner);
472             if !upvars.map_or(false, |upvars| upvars.contains_key(&var_hir_id)) {
473                 ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
474             }
475         }
476         intravisit::walk_expr(ir, expr);
477       }
478       hir::ExprKind::Closure(..) => {
479         // Interesting control flow (for loops can contain labeled
480         // breaks or continues)
481         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
482
483         // Make a live_node for each captured variable, with the span
484         // being the location that the variable is used.  This results
485         // in better error messages than just pointing at the closure
486         // construction site.
487         let mut call_caps = Vec::new();
488         let closure_def_id = ir.tcx.hir().local_def_id(expr.hir_id);
489         if let Some(upvars) = ir.tcx.upvars(closure_def_id) {
490             let parent_upvars = ir.tcx.upvars(ir.body_owner);
491             call_caps.extend(upvars.iter().filter_map(|(&var_id, upvar)| {
492                 let has_parent = parent_upvars
493                     .map_or(false, |upvars| upvars.contains_key(&var_id));
494                 if !has_parent {
495                     let upvar_ln = ir.add_live_node(UpvarNode(upvar.span));
496                     Some(CaptureInfo { ln: upvar_ln, var_hid: var_id })
497                 } else {
498                     None
499                 }
500             }));
501         }
502         ir.set_captures(expr.hir_id, call_caps);
503         let old_body_owner = ir.body_owner;
504         ir.body_owner = closure_def_id;
505         intravisit::walk_expr(ir, expr);
506         ir.body_owner = old_body_owner;
507       }
508
509       // live nodes required for interesting control flow:
510       hir::ExprKind::Match(..) |
511       hir::ExprKind::Loop(..) => {
512         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
513         intravisit::walk_expr(ir, expr);
514       }
515       hir::ExprKind::Binary(op, ..) if op.node.is_lazy() => {
516         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
517         intravisit::walk_expr(ir, expr);
518       }
519
520       // otherwise, live nodes are not required:
521       hir::ExprKind::Index(..) |
522       hir::ExprKind::Field(..) |
523       hir::ExprKind::Array(..) |
524       hir::ExprKind::Call(..) |
525       hir::ExprKind::MethodCall(..) |
526       hir::ExprKind::Tup(..) |
527       hir::ExprKind::Binary(..) |
528       hir::ExprKind::AddrOf(..) |
529       hir::ExprKind::Cast(..) |
530       hir::ExprKind::DropTemps(..) |
531       hir::ExprKind::Unary(..) |
532       hir::ExprKind::Break(..) |
533       hir::ExprKind::Continue(_) |
534       hir::ExprKind::Lit(_) |
535       hir::ExprKind::Ret(..) |
536       hir::ExprKind::Block(..) |
537       hir::ExprKind::Assign(..) |
538       hir::ExprKind::AssignOp(..) |
539       hir::ExprKind::Struct(..) |
540       hir::ExprKind::Repeat(..) |
541       hir::ExprKind::InlineAsm(..) |
542       hir::ExprKind::Box(..) |
543       hir::ExprKind::Yield(..) |
544       hir::ExprKind::Type(..) |
545       hir::ExprKind::Err |
546       hir::ExprKind::Path(hir::QPath::TypeRelative(..)) => {
547           intravisit::walk_expr(ir, expr);
548       }
549     }
550 }
551
552 // ______________________________________________________________________
553 // Computing liveness sets
554 //
555 // Actually we compute just a bit more than just liveness, but we use
556 // the same basic propagation framework in all cases.
557
558 #[derive(Clone, Copy)]
559 struct RWU {
560     reader: LiveNode,
561     writer: LiveNode,
562     used: bool
563 }
564
565 /// Conceptually, this is like a `Vec<RWU>`. But the number of `RWU`s can get
566 /// very large, so it uses a more compact representation that takes advantage
567 /// of the fact that when the number of `RWU`s is large, most of them have an
568 /// invalid reader and an invalid writer.
569 struct RWUTable {
570     /// Each entry in `packed_rwus` is either INV_INV_FALSE, INV_INV_TRUE, or
571     /// an index into `unpacked_rwus`. In the common cases, this compacts the
572     /// 65 bits of data into 32; in the uncommon cases, it expands the 65 bits
573     /// in 96.
574     ///
575     /// More compact representations are possible -- e.g., use only 2 bits per
576     /// packed `RWU` and make the secondary table a HashMap that maps from
577     /// indices to `RWU`s -- but this one strikes a good balance between size
578     /// and speed.
579     packed_rwus: Vec<u32>,
580     unpacked_rwus: Vec<RWU>,
581 }
582
583 // A constant representing `RWU { reader: invalid_node(); writer: invalid_node(); used: false }`.
584 const INV_INV_FALSE: u32 = u32::MAX;
585
586 // A constant representing `RWU { reader: invalid_node(); writer: invalid_node(); used: true }`.
587 const INV_INV_TRUE: u32 = u32::MAX - 1;
588
589 impl RWUTable {
590     fn new(num_rwus: usize) -> RWUTable {
591         Self {
592             packed_rwus: vec![INV_INV_FALSE; num_rwus],
593             unpacked_rwus: vec![],
594         }
595     }
596
597     fn get(&self, idx: usize) -> RWU {
598         let packed_rwu = self.packed_rwus[idx];
599         match packed_rwu {
600             INV_INV_FALSE => RWU { reader: invalid_node(), writer: invalid_node(), used: false },
601             INV_INV_TRUE => RWU { reader: invalid_node(), writer: invalid_node(), used: true },
602             _ => self.unpacked_rwus[packed_rwu as usize],
603         }
604     }
605
606     fn get_reader(&self, idx: usize) -> LiveNode {
607         let packed_rwu = self.packed_rwus[idx];
608         match packed_rwu {
609             INV_INV_FALSE | INV_INV_TRUE => invalid_node(),
610             _ => self.unpacked_rwus[packed_rwu as usize].reader,
611         }
612     }
613
614     fn get_writer(&self, idx: usize) -> LiveNode {
615         let packed_rwu = self.packed_rwus[idx];
616         match packed_rwu {
617             INV_INV_FALSE | INV_INV_TRUE => invalid_node(),
618             _ => self.unpacked_rwus[packed_rwu as usize].writer,
619         }
620     }
621
622     fn get_used(&self, idx: usize) -> bool {
623         let packed_rwu = self.packed_rwus[idx];
624         match packed_rwu {
625             INV_INV_FALSE => false,
626             INV_INV_TRUE => true,
627             _ => self.unpacked_rwus[packed_rwu as usize].used,
628         }
629     }
630
631     #[inline]
632     fn copy_packed(&mut self, dst_idx: usize, src_idx: usize) {
633         self.packed_rwus[dst_idx] = self.packed_rwus[src_idx];
634     }
635
636     fn assign_unpacked(&mut self, idx: usize, rwu: RWU) {
637         if rwu.reader == invalid_node() && rwu.writer == invalid_node() {
638             // When we overwrite an indexing entry in `self.packed_rwus` with
639             // `INV_INV_{TRUE,FALSE}` we don't remove the corresponding entry
640             // from `self.unpacked_rwus`; it's not worth the effort, and we
641             // can't have entries shifting around anyway.
642             self.packed_rwus[idx] = if rwu.used {
643                 INV_INV_TRUE
644             } else {
645                 INV_INV_FALSE
646             }
647         } else {
648             // Add a new RWU to `unpacked_rwus` and make `packed_rwus[idx]`
649             // point to it.
650             self.packed_rwus[idx] = self.unpacked_rwus.len() as u32;
651             self.unpacked_rwus.push(rwu);
652         }
653     }
654
655     fn assign_inv_inv(&mut self, idx: usize) {
656         self.packed_rwus[idx] = if self.get_used(idx) {
657             INV_INV_TRUE
658         } else {
659             INV_INV_FALSE
660         };
661     }
662 }
663
664 #[derive(Copy, Clone)]
665 struct Specials {
666     exit_ln: LiveNode,
667     fallthrough_ln: LiveNode,
668     clean_exit_var: Variable
669 }
670
671 const ACC_READ: u32 = 1;
672 const ACC_WRITE: u32 = 2;
673 const ACC_USE: u32 = 4;
674
675 struct Liveness<'a, 'tcx> {
676     ir: &'a mut IrMaps<'tcx>,
677     tables: &'a ty::TypeckTables<'tcx>,
678     s: Specials,
679     successors: Vec<LiveNode>,
680     rwu_table: RWUTable,
681
682     // mappings from loop node ID to LiveNode
683     // ("break" label should map to loop node ID,
684     // it probably doesn't now)
685     break_ln: HirIdMap<LiveNode>,
686     cont_ln: HirIdMap<LiveNode>,
687 }
688
689 impl<'a, 'tcx> Liveness<'a, 'tcx> {
690     fn new(ir: &'a mut IrMaps<'tcx>, body: hir::BodyId) -> Liveness<'a, 'tcx> {
691         // Special nodes and variables:
692         // - exit_ln represents the end of the fn, either by return or panic
693         // - implicit_ret_var is a pseudo-variable that represents
694         //   an implicit return
695         let specials = Specials {
696             exit_ln: ir.add_live_node(ExitNode),
697             fallthrough_ln: ir.add_live_node(ExitNode),
698             clean_exit_var: ir.add_variable(CleanExit)
699         };
700
701         let tables = ir.tcx.body_tables(body);
702
703         let num_live_nodes = ir.num_live_nodes;
704         let num_vars = ir.num_vars;
705
706         Liveness {
707             ir,
708             tables,
709             s: specials,
710             successors: vec![invalid_node(); num_live_nodes],
711             rwu_table: RWUTable::new(num_live_nodes * num_vars),
712             break_ln: Default::default(),
713             cont_ln: Default::default(),
714         }
715     }
716
717     fn live_node(&self, hir_id: HirId, span: Span) -> LiveNode {
718         match self.ir.live_node_map.get(&hir_id) {
719           Some(&ln) => ln,
720           None => {
721             // This must be a mismatch between the ir_map construction
722             // above and the propagation code below; the two sets of
723             // code have to agree about which AST nodes are worth
724             // creating liveness nodes for.
725             span_bug!(
726                 span,
727                 "no live node registered for node {:?}",
728                 hir_id);
729           }
730         }
731     }
732
733     fn variable(&self, hir_id: HirId, span: Span) -> Variable {
734         self.ir.variable(hir_id, span)
735     }
736
737     fn pat_bindings<F>(&mut self, pat: &hir::Pat, mut f: F) where
738         F: FnMut(&mut Liveness<'a, 'tcx>, LiveNode, Variable, Span, HirId),
739     {
740         pat.each_binding(|_bm, hir_id, sp, n| {
741             let ln = self.live_node(hir_id, sp);
742             let var = self.variable(hir_id, n.span);
743             f(self, ln, var, n.span, hir_id);
744         })
745     }
746
747     fn arm_pats_bindings<F>(&mut self, pat: Option<&hir::Pat>, f: F) where
748         F: FnMut(&mut Liveness<'a, 'tcx>, LiveNode, Variable, Span, HirId),
749     {
750         if let Some(pat) = pat {
751             self.pat_bindings(pat, f);
752         }
753     }
754
755     fn define_bindings_in_pat(&mut self, pat: &hir::Pat, succ: LiveNode)
756                               -> LiveNode {
757         self.define_bindings_in_arm_pats(Some(pat), succ)
758     }
759
760     fn define_bindings_in_arm_pats(&mut self, pat: Option<&hir::Pat>, succ: LiveNode)
761                                    -> LiveNode {
762         let mut succ = succ;
763         self.arm_pats_bindings(pat, |this, ln, var, _sp, _id| {
764             this.init_from_succ(ln, succ);
765             this.define(ln, var);
766             succ = ln;
767         });
768         succ
769     }
770
771     fn idx(&self, ln: LiveNode, var: Variable) -> usize {
772         ln.get() * self.ir.num_vars + var.get()
773     }
774
775     fn live_on_entry(&self, ln: LiveNode, var: Variable) -> Option<LiveNodeKind> {
776         assert!(ln.is_valid());
777         let reader = self.rwu_table.get_reader(self.idx(ln, var));
778         if reader.is_valid() { Some(self.ir.lnk(reader)) } else { None }
779     }
780
781     // Is this variable live on entry to any of its successor nodes?
782     fn live_on_exit(&self, ln: LiveNode, var: Variable)
783                     -> Option<LiveNodeKind> {
784         let successor = self.successors[ln.get()];
785         self.live_on_entry(successor, var)
786     }
787
788     fn used_on_entry(&self, ln: LiveNode, var: Variable) -> bool {
789         assert!(ln.is_valid());
790         self.rwu_table.get_used(self.idx(ln, var))
791     }
792
793     fn assigned_on_entry(&self, ln: LiveNode, var: Variable)
794                          -> Option<LiveNodeKind> {
795         assert!(ln.is_valid());
796         let writer = self.rwu_table.get_writer(self.idx(ln, var));
797         if writer.is_valid() { Some(self.ir.lnk(writer)) } else { None }
798     }
799
800     fn assigned_on_exit(&self, ln: LiveNode, var: Variable)
801                         -> Option<LiveNodeKind> {
802         let successor = self.successors[ln.get()];
803         self.assigned_on_entry(successor, var)
804     }
805
806     fn indices2<F>(&mut self, ln: LiveNode, succ_ln: LiveNode, mut op: F) where
807         F: FnMut(&mut Liveness<'a, 'tcx>, usize, usize),
808     {
809         let node_base_idx = self.idx(ln, Variable(0));
810         let succ_base_idx = self.idx(succ_ln, Variable(0));
811         for var_idx in 0..self.ir.num_vars {
812             op(self, node_base_idx + var_idx, succ_base_idx + var_idx);
813         }
814     }
815
816     fn write_vars<F>(&self,
817                      wr: &mut dyn Write,
818                      ln: LiveNode,
819                      mut test: F)
820                      -> io::Result<()> where
821         F: FnMut(usize) -> LiveNode,
822     {
823         let node_base_idx = self.idx(ln, Variable(0));
824         for var_idx in 0..self.ir.num_vars {
825             let idx = node_base_idx + var_idx;
826             if test(idx).is_valid() {
827                 write!(wr, " {:?}", Variable(var_idx as u32))?;
828             }
829         }
830         Ok(())
831     }
832
833
834     #[allow(unused_must_use)]
835     fn ln_str(&self, ln: LiveNode) -> String {
836         let mut wr = Vec::new();
837         {
838             let wr = &mut wr as &mut dyn Write;
839             write!(wr, "[ln({:?}) of kind {:?} reads", ln.get(), self.ir.lnk(ln));
840             self.write_vars(wr, ln, |idx| self.rwu_table.get_reader(idx));
841             write!(wr, "  writes");
842             self.write_vars(wr, ln, |idx| self.rwu_table.get_writer(idx));
843             write!(wr, "  precedes {:?}]", self.successors[ln.get()]);
844         }
845         String::from_utf8(wr).unwrap()
846     }
847
848     fn init_empty(&mut self, ln: LiveNode, succ_ln: LiveNode) {
849         self.successors[ln.get()] = succ_ln;
850
851         // It is not necessary to initialize the RWUs here because they are all
852         // set to INV_INV_FALSE when they are created, and the sets only grow
853         // during iterations.
854     }
855
856     fn init_from_succ(&mut self, ln: LiveNode, succ_ln: LiveNode) {
857         // more efficient version of init_empty() / merge_from_succ()
858         self.successors[ln.get()] = succ_ln;
859
860         self.indices2(ln, succ_ln, |this, idx, succ_idx| {
861             this.rwu_table.copy_packed(idx, succ_idx);
862         });
863         debug!("init_from_succ(ln={}, succ={})",
864                self.ln_str(ln), self.ln_str(succ_ln));
865     }
866
867     fn merge_from_succ(&mut self,
868                        ln: LiveNode,
869                        succ_ln: LiveNode,
870                        first_merge: bool)
871                        -> bool {
872         if ln == succ_ln { return false; }
873
874         let mut changed = false;
875         self.indices2(ln, succ_ln, |this, idx, succ_idx| {
876             let mut rwu = this.rwu_table.get(idx);
877             let succ_rwu = this.rwu_table.get(succ_idx);
878             if succ_rwu.reader.is_valid() && !rwu.reader.is_valid() {
879                 rwu.reader = succ_rwu.reader;
880                 changed = true
881             }
882
883             if succ_rwu.writer.is_valid() && !rwu.writer.is_valid() {
884                 rwu.writer = succ_rwu.writer;
885                 changed = true
886             }
887
888             if succ_rwu.used && !rwu.used {
889                 rwu.used = true;
890                 changed = true;
891             }
892
893             if changed {
894                 this.rwu_table.assign_unpacked(idx, rwu);
895             }
896         });
897
898         debug!("merge_from_succ(ln={:?}, succ={}, first_merge={}, changed={})",
899                ln, self.ln_str(succ_ln), first_merge, changed);
900         return changed;
901     }
902
903     // Indicates that a local variable was *defined*; we know that no
904     // uses of the variable can precede the definition (resolve checks
905     // this) so we just clear out all the data.
906     fn define(&mut self, writer: LiveNode, var: Variable) {
907         let idx = self.idx(writer, var);
908         self.rwu_table.assign_inv_inv(idx);
909
910         debug!("{:?} defines {:?} (idx={}): {}", writer, var,
911                idx, self.ln_str(writer));
912     }
913
914     // Either read, write, or both depending on the acc bitset
915     fn acc(&mut self, ln: LiveNode, var: Variable, acc: u32) {
916         debug!("{:?} accesses[{:x}] {:?}: {}",
917                ln, acc, var, self.ln_str(ln));
918
919         let idx = self.idx(ln, var);
920         let mut rwu = self.rwu_table.get(idx);
921
922         if (acc & ACC_WRITE) != 0 {
923             rwu.reader = invalid_node();
924             rwu.writer = ln;
925         }
926
927         // Important: if we both read/write, must do read second
928         // or else the write will override.
929         if (acc & ACC_READ) != 0 {
930             rwu.reader = ln;
931         }
932
933         if (acc & ACC_USE) != 0 {
934             rwu.used = true;
935         }
936
937         self.rwu_table.assign_unpacked(idx, rwu);
938     }
939
940     fn compute(&mut self, body: &hir::Expr) -> LiveNode {
941         debug!("compute: using id for body, {}",
942                self.ir.tcx.hir().hir_to_pretty_string(body.hir_id));
943
944         // the fallthrough exit is only for those cases where we do not
945         // explicitly return:
946         let s = self.s;
947         self.init_from_succ(s.fallthrough_ln, s.exit_ln);
948         self.acc(s.fallthrough_ln, s.clean_exit_var, ACC_READ);
949
950         let entry_ln = self.propagate_through_expr(body, s.fallthrough_ln);
951
952         // hack to skip the loop unless debug! is enabled:
953         debug!("^^ liveness computation results for body {} (entry={:?})", {
954                    for ln_idx in 0..self.ir.num_live_nodes {
955                         debug!("{:?}", self.ln_str(LiveNode(ln_idx as u32)));
956                    }
957                    body.hir_id
958                },
959                entry_ln);
960
961         entry_ln
962     }
963
964     fn propagate_through_block(&mut self, blk: &hir::Block, succ: LiveNode)
965                                -> LiveNode {
966         if blk.targeted_by_break {
967             self.break_ln.insert(blk.hir_id, succ);
968         }
969         let succ = self.propagate_through_opt_expr(blk.expr.as_ref().map(|e| &**e), succ);
970         blk.stmts.iter().rev().fold(succ, |succ, stmt| {
971             self.propagate_through_stmt(stmt, succ)
972         })
973     }
974
975     fn propagate_through_stmt(&mut self, stmt: &hir::Stmt, succ: LiveNode)
976                               -> LiveNode {
977         match stmt.node {
978             hir::StmtKind::Local(ref local) => {
979                 // Note: we mark the variable as defined regardless of whether
980                 // there is an initializer.  Initially I had thought to only mark
981                 // the live variable as defined if it was initialized, and then we
982                 // could check for uninit variables just by scanning what is live
983                 // at the start of the function. But that doesn't work so well for
984                 // immutable variables defined in a loop:
985                 //     loop { let x; x = 5; }
986                 // because the "assignment" loops back around and generates an error.
987                 //
988                 // So now we just check that variables defined w/o an
989                 // initializer are not live at the point of their
990                 // initialization, which is mildly more complex than checking
991                 // once at the func header but otherwise equivalent.
992
993                 let succ = self.propagate_through_opt_expr(local.init.as_ref().map(|e| &**e), succ);
994                 self.define_bindings_in_pat(&local.pat, succ)
995             }
996             hir::StmtKind::Item(..) => succ,
997             hir::StmtKind::Expr(ref expr) | hir::StmtKind::Semi(ref expr) => {
998                 self.propagate_through_expr(&expr, succ)
999             }
1000         }
1001     }
1002
1003     fn propagate_through_exprs(&mut self, exprs: &[Expr], succ: LiveNode)
1004                                -> LiveNode {
1005         exprs.iter().rev().fold(succ, |succ, expr| {
1006             self.propagate_through_expr(&expr, succ)
1007         })
1008     }
1009
1010     fn propagate_through_opt_expr(&mut self,
1011                                   opt_expr: Option<&Expr>,
1012                                   succ: LiveNode)
1013                                   -> LiveNode {
1014         opt_expr.map_or(succ, |expr| self.propagate_through_expr(expr, succ))
1015     }
1016
1017     fn propagate_through_expr(&mut self, expr: &Expr, succ: LiveNode)
1018                               -> LiveNode {
1019         debug!("propagate_through_expr: {}", self.ir.tcx.hir().hir_to_pretty_string(expr.hir_id));
1020
1021         match expr.node {
1022             // Interesting cases with control flow or which gen/kill
1023             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1024                 self.access_path(expr.hir_id, path, succ, ACC_READ | ACC_USE)
1025             }
1026
1027             hir::ExprKind::Field(ref e, _) => {
1028                 self.propagate_through_expr(&e, succ)
1029             }
1030
1031             hir::ExprKind::Closure(..) => {
1032                 debug!("{} is an ExprKind::Closure",
1033                        self.ir.tcx.hir().hir_to_pretty_string(expr.hir_id));
1034
1035                 // the construction of a closure itself is not important,
1036                 // but we have to consider the closed over variables.
1037                 let caps = self.ir.capture_info_map.get(&expr.hir_id).cloned().unwrap_or_else(||
1038                     span_bug!(expr.span, "no registered caps"));
1039
1040                 caps.iter().rev().fold(succ, |succ, cap| {
1041                     self.init_from_succ(cap.ln, succ);
1042                     let var = self.variable(cap.var_hid, expr.span);
1043                     self.acc(cap.ln, var, ACC_READ | ACC_USE);
1044                     cap.ln
1045                 })
1046             }
1047
1048             // Note that labels have been resolved, so we don't need to look
1049             // at the label ident
1050             hir::ExprKind::Loop(ref blk, _, _) => {
1051                 self.propagate_through_loop(expr, &blk, succ)
1052             }
1053
1054             hir::ExprKind::Match(ref e, ref arms, _) => {
1055                 //
1056                 //      (e)
1057                 //       |
1058                 //       v
1059                 //     (expr)
1060                 //     / | \
1061                 //    |  |  |
1062                 //    v  v  v
1063                 //   (..arms..)
1064                 //    |  |  |
1065                 //    v  v  v
1066                 //   (  succ  )
1067                 //
1068                 //
1069                 let ln = self.live_node(expr.hir_id, expr.span);
1070                 self.init_empty(ln, succ);
1071                 let mut first_merge = true;
1072                 for arm in arms {
1073                     let body_succ = self.propagate_through_expr(&arm.body, succ);
1074
1075                     let guard_succ = self.propagate_through_opt_expr(
1076                         arm.guard.as_ref().map(|hir::Guard::If(e)| &**e),
1077                         body_succ
1078                     );
1079                     // only consider the first pattern; any later patterns must have
1080                     // the same bindings, and we also consider the first pattern to be
1081                     // the "authoritative" set of ids
1082                     let arm_succ =
1083                         self.define_bindings_in_arm_pats(arm.top_pats_hack().first().map(|p| &**p),
1084                                                          guard_succ);
1085                     self.merge_from_succ(ln, arm_succ, first_merge);
1086                     first_merge = false;
1087                 };
1088                 self.propagate_through_expr(&e, ln)
1089             }
1090
1091             hir::ExprKind::Ret(ref o_e) => {
1092                 // ignore succ and subst exit_ln:
1093                 let exit_ln = self.s.exit_ln;
1094                 self.propagate_through_opt_expr(o_e.as_ref().map(|e| &**e), exit_ln)
1095             }
1096
1097             hir::ExprKind::Break(label, ref opt_expr) => {
1098                 // Find which label this break jumps to
1099                 let target = match label.target_id {
1100                     Ok(hir_id) => self.break_ln.get(&hir_id),
1101                     Err(err) => span_bug!(expr.span, "loop scope error: {}", err),
1102                 }.cloned();
1103
1104                 // Now that we know the label we're going to,
1105                 // look it up in the break loop nodes table
1106
1107                 match target {
1108                     Some(b) => self.propagate_through_opt_expr(opt_expr.as_ref().map(|e| &**e), b),
1109                     None => span_bug!(expr.span, "break to unknown label")
1110                 }
1111             }
1112
1113             hir::ExprKind::Continue(label) => {
1114                 // Find which label this expr continues to
1115                 let sc = label.target_id.unwrap_or_else(|err|
1116                     span_bug!(expr.span, "loop scope error: {}", err));
1117
1118                 // Now that we know the label we're going to,
1119                 // look it up in the continue loop nodes table
1120                 self.cont_ln.get(&sc).cloned().unwrap_or_else(||
1121                     span_bug!(expr.span, "continue to unknown label"))
1122             }
1123
1124             hir::ExprKind::Assign(ref l, ref r) => {
1125                 // see comment on places in
1126                 // propagate_through_place_components()
1127                 let succ = self.write_place(&l, succ, ACC_WRITE);
1128                 let succ = self.propagate_through_place_components(&l, succ);
1129                 self.propagate_through_expr(&r, succ)
1130             }
1131
1132             hir::ExprKind::AssignOp(_, ref l, ref r) => {
1133                 // an overloaded assign op is like a method call
1134                 if self.tables.is_method_call(expr) {
1135                     let succ = self.propagate_through_expr(&l, succ);
1136                     self.propagate_through_expr(&r, succ)
1137                 } else {
1138                     // see comment on places in
1139                     // propagate_through_place_components()
1140                     let succ = self.write_place(&l, succ, ACC_WRITE|ACC_READ);
1141                     let succ = self.propagate_through_expr(&r, succ);
1142                     self.propagate_through_place_components(&l, succ)
1143                 }
1144             }
1145
1146             // Uninteresting cases: just propagate in rev exec order
1147
1148             hir::ExprKind::Array(ref exprs) => {
1149                 self.propagate_through_exprs(exprs, succ)
1150             }
1151
1152             hir::ExprKind::Struct(_, ref fields, ref with_expr) => {
1153                 let succ = self.propagate_through_opt_expr(with_expr.as_ref().map(|e| &**e), succ);
1154                 fields.iter().rev().fold(succ, |succ, field| {
1155                     self.propagate_through_expr(&field.expr, succ)
1156                 })
1157             }
1158
1159             hir::ExprKind::Call(ref f, ref args) => {
1160                 let m = self.ir.tcx.hir().get_module_parent(expr.hir_id);
1161                 let succ = if self.ir.tcx.is_ty_uninhabited_from(m, self.tables.expr_ty(expr)) {
1162                     self.s.exit_ln
1163                 } else {
1164                     succ
1165                 };
1166                 let succ = self.propagate_through_exprs(args, succ);
1167                 self.propagate_through_expr(&f, succ)
1168             }
1169
1170             hir::ExprKind::MethodCall(.., ref args) => {
1171                 let m = self.ir.tcx.hir().get_module_parent(expr.hir_id);
1172                 let succ = if self.ir.tcx.is_ty_uninhabited_from(m, self.tables.expr_ty(expr)) {
1173                     self.s.exit_ln
1174                 } else {
1175                     succ
1176                 };
1177
1178                 self.propagate_through_exprs(args, succ)
1179             }
1180
1181             hir::ExprKind::Tup(ref exprs) => {
1182                 self.propagate_through_exprs(exprs, succ)
1183             }
1184
1185             hir::ExprKind::Binary(op, ref l, ref r) if op.node.is_lazy() => {
1186                 let r_succ = self.propagate_through_expr(&r, succ);
1187
1188                 let ln = self.live_node(expr.hir_id, expr.span);
1189                 self.init_from_succ(ln, succ);
1190                 self.merge_from_succ(ln, r_succ, false);
1191
1192                 self.propagate_through_expr(&l, ln)
1193             }
1194
1195             hir::ExprKind::Index(ref l, ref r) |
1196             hir::ExprKind::Binary(_, ref l, ref r) => {
1197                 let r_succ = self.propagate_through_expr(&r, succ);
1198                 self.propagate_through_expr(&l, r_succ)
1199             }
1200
1201             hir::ExprKind::Box(ref e) |
1202             hir::ExprKind::AddrOf(_, ref e) |
1203             hir::ExprKind::Cast(ref e, _) |
1204             hir::ExprKind::Type(ref e, _) |
1205             hir::ExprKind::DropTemps(ref e) |
1206             hir::ExprKind::Unary(_, ref e) |
1207             hir::ExprKind::Yield(ref e, _) |
1208             hir::ExprKind::Repeat(ref e, _) => {
1209                 self.propagate_through_expr(&e, succ)
1210             }
1211
1212             hir::ExprKind::InlineAsm(ref ia, ref outputs, ref inputs) => {
1213                 let succ = ia.outputs.iter().zip(outputs).rev().fold(succ, |succ, (o, output)| {
1214                 // see comment on places
1215                 // in propagate_through_place_components()
1216                 if o.is_indirect {
1217                     self.propagate_through_expr(output, succ)
1218                 } else {
1219                     let acc = if o.is_rw { ACC_WRITE|ACC_READ } else { ACC_WRITE };
1220                     let succ = self.write_place(output, succ, acc);
1221                     self.propagate_through_place_components(output, succ)
1222                 }});
1223
1224                 // Inputs are executed first. Propagate last because of rev order
1225                 self.propagate_through_exprs(inputs, succ)
1226             }
1227
1228             hir::ExprKind::Lit(..) | hir::ExprKind::Err |
1229             hir::ExprKind::Path(hir::QPath::TypeRelative(..)) => {
1230                 succ
1231             }
1232
1233             // Note that labels have been resolved, so we don't need to look
1234             // at the label ident
1235             hir::ExprKind::Block(ref blk, _) => {
1236                 self.propagate_through_block(&blk, succ)
1237             }
1238         }
1239     }
1240
1241     fn propagate_through_place_components(&mut self,
1242                                           expr: &Expr,
1243                                           succ: LiveNode)
1244                                           -> LiveNode {
1245         // # Places
1246         //
1247         // In general, the full flow graph structure for an
1248         // assignment/move/etc can be handled in one of two ways,
1249         // depending on whether what is being assigned is a "tracked
1250         // value" or not. A tracked value is basically a local
1251         // variable or argument.
1252         //
1253         // The two kinds of graphs are:
1254         //
1255         //    Tracked place          Untracked place
1256         // ----------------------++-----------------------
1257         //                       ||
1258         //         |             ||           |
1259         //         v             ||           v
1260         //     (rvalue)          ||       (rvalue)
1261         //         |             ||           |
1262         //         v             ||           v
1263         // (write of place)     ||   (place components)
1264         //         |             ||           |
1265         //         v             ||           v
1266         //      (succ)           ||        (succ)
1267         //                       ||
1268         // ----------------------++-----------------------
1269         //
1270         // I will cover the two cases in turn:
1271         //
1272         // # Tracked places
1273         //
1274         // A tracked place is a local variable/argument `x`.  In
1275         // these cases, the link_node where the write occurs is linked
1276         // to node id of `x`.  The `write_place()` routine generates
1277         // the contents of this node.  There are no subcomponents to
1278         // consider.
1279         //
1280         // # Non-tracked places
1281         //
1282         // These are places like `x[5]` or `x.f`.  In that case, we
1283         // basically ignore the value which is written to but generate
1284         // reads for the components---`x` in these two examples.  The
1285         // components reads are generated by
1286         // `propagate_through_place_components()` (this fn).
1287         //
1288         // # Illegal places
1289         //
1290         // It is still possible to observe assignments to non-places;
1291         // these errors are detected in the later pass borrowck.  We
1292         // just ignore such cases and treat them as reads.
1293
1294         match expr.node {
1295             hir::ExprKind::Path(_) => succ,
1296             hir::ExprKind::Field(ref e, _) => self.propagate_through_expr(&e, succ),
1297             _ => self.propagate_through_expr(expr, succ)
1298         }
1299     }
1300
1301     // see comment on propagate_through_place()
1302     fn write_place(&mut self, expr: &Expr, succ: LiveNode, acc: u32) -> LiveNode {
1303         match expr.node {
1304             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1305                 self.access_path(expr.hir_id, path, succ, acc)
1306             }
1307
1308             // We do not track other places, so just propagate through
1309             // to their subcomponents.  Also, it may happen that
1310             // non-places occur here, because those are detected in the
1311             // later pass borrowck.
1312             _ => succ
1313         }
1314     }
1315
1316     fn access_var(&mut self, hir_id: HirId, var_hid: HirId, succ: LiveNode, acc: u32, span: Span)
1317                   -> LiveNode {
1318         let ln = self.live_node(hir_id, span);
1319         if acc != 0 {
1320             self.init_from_succ(ln, succ);
1321             let var = self.variable(var_hid, span);
1322             self.acc(ln, var, acc);
1323         }
1324         ln
1325     }
1326
1327     fn access_path(&mut self, hir_id: HirId, path: &hir::Path, succ: LiveNode, acc: u32)
1328                    -> LiveNode {
1329         match path.res {
1330             Res::Local(hid) => {
1331                 let upvars = self.ir.tcx.upvars(self.ir.body_owner);
1332                 if !upvars.map_or(false, |upvars| upvars.contains_key(&hid)) {
1333                     self.access_var(hir_id, hid, succ, acc, path.span)
1334                 } else {
1335                     succ
1336                 }
1337             }
1338             _ => succ
1339         }
1340     }
1341
1342     fn propagate_through_loop(
1343         &mut self,
1344         expr: &Expr,
1345         body: &hir::Block,
1346         succ: LiveNode
1347     ) -> LiveNode {
1348         /*
1349         We model control flow like this:
1350
1351               (expr) <-+
1352                 |      |
1353                 v      |
1354               (body) --+
1355
1356         Note that a `continue` expression targeting the `loop` will have a successor of `expr`.
1357         Meanwhile, a `break` expression will have a successor of `succ`.
1358         */
1359
1360         // first iteration:
1361         let mut first_merge = true;
1362         let ln = self.live_node(expr.hir_id, expr.span);
1363         self.init_empty(ln, succ);
1364         debug!("propagate_through_loop: using id for loop body {} {}",
1365                expr.hir_id, self.ir.tcx.hir().hir_to_pretty_string(body.hir_id));
1366
1367         self.break_ln.insert(expr.hir_id, succ);
1368
1369         self.cont_ln.insert(expr.hir_id, ln);
1370
1371         let body_ln = self.propagate_through_block(body, ln);
1372
1373         // repeat until fixed point is reached:
1374         while self.merge_from_succ(ln, body_ln, first_merge) {
1375             first_merge = false;
1376             assert_eq!(body_ln, self.propagate_through_block(body, ln));
1377         }
1378
1379         ln
1380     }
1381 }
1382
1383 // _______________________________________________________________________
1384 // Checking for error conditions
1385
1386 impl<'a, 'tcx> Visitor<'tcx> for Liveness<'a, 'tcx> {
1387     fn nested_visit_map<'this>(&'this mut self) -> NestedVisitorMap<'this, 'tcx> {
1388         NestedVisitorMap::None
1389     }
1390
1391     fn visit_local(&mut self, l: &'tcx hir::Local) {
1392         check_local(self, l);
1393     }
1394     fn visit_expr(&mut self, ex: &'tcx Expr) {
1395         check_expr(self, ex);
1396     }
1397     fn visit_arm(&mut self, a: &'tcx hir::Arm) {
1398         check_arm(self, a);
1399     }
1400 }
1401
1402 fn check_local<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, local: &'tcx hir::Local) {
1403     match local.init {
1404         Some(_) => {
1405             this.warn_about_unused_or_dead_vars_in_pat(&local.pat);
1406         },
1407         None => {
1408             this.pat_bindings(&local.pat, |this, ln, var, sp, id| {
1409                 let span = local.pat.simple_ident().map_or(sp, |ident| ident.span);
1410                 this.warn_about_unused(vec![span], id, ln, var);
1411             })
1412         }
1413     }
1414
1415     intravisit::walk_local(this, local);
1416 }
1417
1418 fn check_arm<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, arm: &'tcx hir::Arm) {
1419     // Only consider the variable from the first pattern; any later patterns must have
1420     // the same bindings, and we also consider the first pattern to be the "authoritative" set of
1421     // ids. However, we should take the spans of variables with the same name from the later
1422     // patterns so the suggestions to prefix with underscores will apply to those too.
1423     let mut vars: BTreeMap<String, (LiveNode, Variable, HirId, Vec<Span>)> = Default::default();
1424
1425     for pat in arm.top_pats_hack() {
1426         this.arm_pats_bindings(Some(&*pat), |this, ln, var, sp, id| {
1427             let name = this.ir.variable_name(var);
1428             vars.entry(name)
1429                 .and_modify(|(.., spans)| {
1430                     spans.push(sp);
1431                 })
1432                 .or_insert_with(|| {
1433                     (ln, var, id, vec![sp])
1434                 });
1435         });
1436     }
1437
1438     for (_, (ln, var, id, spans)) in vars {
1439         this.warn_about_unused(spans, id, ln, var);
1440     }
1441
1442     intravisit::walk_arm(this, arm);
1443 }
1444
1445 fn check_expr<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, expr: &'tcx Expr) {
1446     match expr.node {
1447         hir::ExprKind::Assign(ref l, _) => {
1448             this.check_place(&l);
1449
1450             intravisit::walk_expr(this, expr);
1451         }
1452
1453         hir::ExprKind::AssignOp(_, ref l, _) => {
1454             if !this.tables.is_method_call(expr) {
1455                 this.check_place(&l);
1456             }
1457
1458             intravisit::walk_expr(this, expr);
1459         }
1460
1461         hir::ExprKind::InlineAsm(ref ia, ref outputs, ref inputs) => {
1462             for input in inputs {
1463                 this.visit_expr(input);
1464             }
1465
1466             // Output operands must be places
1467             for (o, output) in ia.outputs.iter().zip(outputs) {
1468                 if !o.is_indirect {
1469                     this.check_place(output);
1470                 }
1471                 this.visit_expr(output);
1472             }
1473
1474             intravisit::walk_expr(this, expr);
1475         }
1476
1477         // no correctness conditions related to liveness
1478         hir::ExprKind::Call(..) | hir::ExprKind::MethodCall(..) |
1479         hir::ExprKind::Match(..) | hir::ExprKind::Loop(..) |
1480         hir::ExprKind::Index(..) | hir::ExprKind::Field(..) |
1481         hir::ExprKind::Array(..) | hir::ExprKind::Tup(..) | hir::ExprKind::Binary(..) |
1482         hir::ExprKind::Cast(..) | hir::ExprKind::DropTemps(..) | hir::ExprKind::Unary(..) |
1483         hir::ExprKind::Ret(..) | hir::ExprKind::Break(..) | hir::ExprKind::Continue(..) |
1484         hir::ExprKind::Lit(_) | hir::ExprKind::Block(..) | hir::ExprKind::AddrOf(..) |
1485         hir::ExprKind::Struct(..) | hir::ExprKind::Repeat(..) |
1486         hir::ExprKind::Closure(..) | hir::ExprKind::Path(_) | hir::ExprKind::Yield(..) |
1487         hir::ExprKind::Box(..) | hir::ExprKind::Type(..) | hir::ExprKind::Err => {
1488             intravisit::walk_expr(this, expr);
1489         }
1490     }
1491 }
1492
1493 impl<'a, 'tcx> Liveness<'a, 'tcx> {
1494     fn check_place(&mut self, expr: &'tcx Expr) {
1495         match expr.node {
1496             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1497                 if let Res::Local(var_hid) = path.res {
1498                     let upvars = self.ir.tcx.upvars(self.ir.body_owner);
1499                     if !upvars.map_or(false, |upvars| upvars.contains_key(&var_hid)) {
1500                         // Assignment to an immutable variable or argument: only legal
1501                         // if there is no later assignment. If this local is actually
1502                         // mutable, then check for a reassignment to flag the mutability
1503                         // as being used.
1504                         let ln = self.live_node(expr.hir_id, expr.span);
1505                         let var = self.variable(var_hid, expr.span);
1506                         self.warn_about_dead_assign(expr.span, expr.hir_id, ln, var);
1507                     }
1508                 }
1509             }
1510             _ => {
1511                 // For other kinds of places, no checks are required,
1512                 // and any embedded expressions are actually rvalues
1513                 intravisit::walk_expr(self, expr);
1514             }
1515         }
1516     }
1517
1518     fn should_warn(&self, var: Variable) -> Option<String> {
1519         let name = self.ir.variable_name(var);
1520         if name.is_empty() || name.as_bytes()[0] == b'_' {
1521             None
1522         } else {
1523             Some(name)
1524         }
1525     }
1526
1527     fn warn_about_unused_args(&self, body: &hir::Body, entry_ln: LiveNode) {
1528         for param in &body.params {
1529             param.pat.each_binding(|_bm, hir_id, _, ident| {
1530                 let sp = ident.span;
1531                 let var = self.variable(hir_id, sp);
1532                 // Ignore unused self.
1533                 if ident.name != kw::SelfLower {
1534                     if !self.warn_about_unused(vec![sp], hir_id, entry_ln, var) {
1535                         if self.live_on_entry(entry_ln, var).is_none() {
1536                             self.report_dead_assign(hir_id, sp, var, true);
1537                         }
1538                     }
1539                 }
1540             })
1541         }
1542     }
1543
1544     fn warn_about_unused_or_dead_vars_in_pat(&mut self, pat: &hir::Pat) {
1545         self.pat_bindings(pat, |this, ln, var, sp, id| {
1546             if !this.warn_about_unused(vec![sp], id, ln, var) {
1547                 this.warn_about_dead_assign(sp, id, ln, var);
1548             }
1549         })
1550     }
1551
1552     fn warn_about_unused(&self,
1553                          spans: Vec<Span>,
1554                          hir_id: HirId,
1555                          ln: LiveNode,
1556                          var: Variable)
1557                          -> bool {
1558         if !self.used_on_entry(ln, var) {
1559             let r = self.should_warn(var);
1560             if let Some(name) = r {
1561                 // annoying: for parameters in funcs like `fn(x: i32)
1562                 // {ret}`, there is only one node, so asking about
1563                 // assigned_on_exit() is not meaningful.
1564                 let is_assigned = if ln == self.s.exit_ln {
1565                     false
1566                 } else {
1567                     self.assigned_on_exit(ln, var).is_some()
1568                 };
1569
1570                 if is_assigned {
1571                     self.ir.tcx.lint_hir_note(
1572                         lint::builtin::UNUSED_VARIABLES,
1573                         hir_id,
1574                         spans,
1575                         &format!("variable `{}` is assigned to, but never used", name),
1576                         &format!("consider using `_{}` instead", name),
1577                     );
1578                 } else if name != "self" {
1579                     let mut err = self.ir.tcx.struct_span_lint_hir(
1580                         lint::builtin::UNUSED_VARIABLES,
1581                         hir_id,
1582                         spans.clone(),
1583                         &format!("unused variable: `{}`", name),
1584                     );
1585
1586                     if self.ir.variable_is_shorthand(var) {
1587                         if let Node::Binding(pat) = self.ir.tcx.hir().get(hir_id) {
1588                             // Handle `ref` and `ref mut`.
1589                             let spans = spans.iter()
1590                                 .map(|_span| (pat.span, format!("{}: _", name)))
1591                                 .collect();
1592
1593                             err.multipart_suggestion(
1594                                 "try ignoring the field",
1595                                 spans,
1596                                 Applicability::MachineApplicable,
1597                             );
1598                         }
1599                     } else {
1600                         err.multipart_suggestion(
1601                             "consider prefixing with an underscore",
1602                             spans.iter().map(|span| (*span, format!("_{}", name))).collect(),
1603                             Applicability::MachineApplicable,
1604                         );
1605                     }
1606
1607                     err.emit()
1608                 }
1609             }
1610             true
1611         } else {
1612             false
1613         }
1614     }
1615
1616     fn warn_about_dead_assign(&self, sp: Span, hir_id: HirId, ln: LiveNode, var: Variable) {
1617         if self.live_on_exit(ln, var).is_none() {
1618             self.report_dead_assign(hir_id, sp, var, false);
1619         }
1620     }
1621
1622     fn report_dead_assign(&self, hir_id: HirId, sp: Span, var: Variable, is_argument: bool) {
1623         if let Some(name) = self.should_warn(var) {
1624             if is_argument {
1625                 self.ir.tcx.struct_span_lint_hir(lint::builtin::UNUSED_ASSIGNMENTS, hir_id, sp,
1626                 &format!("value passed to `{}` is never read", name))
1627                 .help("maybe it is overwritten before being read?")
1628                 .emit();
1629             } else {
1630                 self.ir.tcx.struct_span_lint_hir(lint::builtin::UNUSED_ASSIGNMENTS, hir_id, sp,
1631                 &format!("value assigned to `{}` is never read", name))
1632                 .help("maybe it is overwritten before being read?")
1633                 .emit();
1634             }
1635         }
1636     }
1637 }