]> git.lizzy.rs Git - rust.git/blob - src/librustc/middle/liveness.rs
8cbc4bff3e15b4e23f3234cda8bbb207c61a94f7
[rust.git] / src / librustc / middle / liveness.rs
1 //! A classic liveness analysis based on dataflow over the AST. Computes,
2 //! for each local variable in a function, whether that variable is live
3 //! at a given point. Program execution points are identified by their
4 //! IDs.
5 //!
6 //! # Basic idea
7 //!
8 //! The basic model is that each local variable is assigned an index. We
9 //! represent sets of local variables using a vector indexed by this
10 //! index. The value in the vector is either 0, indicating the variable
11 //! is dead, or the ID of an expression that uses the variable.
12 //!
13 //! We conceptually walk over the AST in reverse execution order. If we
14 //! find a use of a variable, we add it to the set of live variables. If
15 //! we find an assignment to a variable, we remove it from the set of live
16 //! variables. When we have to merge two flows, we take the union of
17 //! those two flows -- if the variable is live on both paths, we simply
18 //! pick one ID. In the event of loops, we continue doing this until a
19 //! fixed point is reached.
20 //!
21 //! ## Checking initialization
22 //!
23 //! At the function entry point, all variables must be dead. If this is
24 //! not the case, we can report an error using the ID found in the set of
25 //! live variables, which identifies a use of the variable which is not
26 //! dominated by an assignment.
27 //!
28 //! ## Checking moves
29 //!
30 //! After each explicit move, the variable must be dead.
31 //!
32 //! ## Computing last uses
33 //!
34 //! Any use of the variable where the variable is dead afterwards is a
35 //! last use.
36 //!
37 //! # Implementation details
38 //!
39 //! The actual implementation contains two (nested) walks over the AST.
40 //! The outer walk has the job of building up the ir_maps instance for the
41 //! enclosing function. On the way down the tree, it identifies those AST
42 //! nodes and variable IDs that will be needed for the liveness analysis
43 //! and assigns them contiguous IDs. The liveness ID for an AST node is
44 //! called a `live_node` (it's a newtype'd `u32`) and the ID for a variable
45 //! is called a `variable` (another newtype'd `u32`).
46 //!
47 //! On the way back up the tree, as we are about to exit from a function
48 //! declaration we allocate a `liveness` instance. Now that we know
49 //! precisely how many nodes and variables we need, we can allocate all
50 //! the various arrays that we will need to precisely the right size. We then
51 //! perform the actual propagation on the `liveness` instance.
52 //!
53 //! This propagation is encoded in the various `propagate_through_*()`
54 //! methods. It effectively does a reverse walk of the AST; whenever we
55 //! reach a loop node, we iterate until a fixed point is reached.
56 //!
57 //! ## The `RWU` struct
58 //!
59 //! At each live node `N`, we track three pieces of information for each
60 //! variable `V` (these are encapsulated in the `RWU` struct):
61 //!
62 //! - `reader`: the `LiveNode` ID of some node which will read the value
63 //!    that `V` holds on entry to `N`. Formally: a node `M` such
64 //!    that there exists a path `P` from `N` to `M` where `P` does not
65 //!    write `V`. If the `reader` is `invalid_node()`, then the current
66 //!    value will never be read (the variable is dead, essentially).
67 //!
68 //! - `writer`: the `LiveNode` ID of some node which will write the
69 //!    variable `V` and which is reachable from `N`. Formally: a node `M`
70 //!    such that there exists a path `P` from `N` to `M` and `M` writes
71 //!    `V`. If the `writer` is `invalid_node()`, then there is no writer
72 //!    of `V` that follows `N`.
73 //!
74 //! - `used`: a boolean value indicating whether `V` is *used*. We
75 //!   distinguish a *read* from a *use* in that a *use* is some read that
76 //!   is not just used to generate a new value. For example, `x += 1` is
77 //!   a read but not a use. This is used to generate better warnings.
78 //!
79 //! ## Special Variables
80 //!
81 //! We generate various special variables for various, well, special purposes.
82 //! These are described in the `specials` struct:
83 //!
84 //! - `exit_ln`: a live node that is generated to represent every 'exit' from
85 //!   the function, whether it be by explicit return, panic, or other means.
86 //!
87 //! - `fallthrough_ln`: a live node that represents a fallthrough
88 //!
89 //! - `clean_exit_var`: a synthetic variable that is only 'read' from the
90 //!   fallthrough node. It is only live if the function could converge
91 //!   via means other than an explicit `return` expression. That is, it is
92 //!   only dead if the end of the function's block can never be reached.
93 //!   It is the responsibility of typeck to ensure that there are no
94 //!   `return` expressions in a function declared as diverging.
95
96 use self::LoopKind::*;
97 use self::LiveNodeKind::*;
98 use self::VarKind::*;
99
100 use crate::hir::def::*;
101 use crate::hir::Node;
102 use crate::ty::{self, TyCtxt};
103 use crate::ty::query::Providers;
104 use crate::lint;
105 use crate::util::nodemap::{NodeMap, HirIdMap, HirIdSet};
106
107 use errors::Applicability;
108 use std::collections::{BTreeMap, VecDeque};
109 use std::{fmt, u32};
110 use std::io::prelude::*;
111 use std::io;
112 use std::rc::Rc;
113 use syntax::ast::{self, NodeId};
114 use syntax::ptr::P;
115 use syntax::symbol::keywords;
116 use syntax_pos::Span;
117
118 use crate::hir;
119 use crate::hir::{Expr, HirId};
120 use crate::hir::def_id::DefId;
121 use crate::hir::intravisit::{self, Visitor, FnKind, NestedVisitorMap};
122
123 /// For use with `propagate_through_loop`.
124 enum LoopKind<'a> {
125     /// An endless `loop` loop.
126     LoopLoop,
127     /// A `while` loop, with the given expression as condition.
128     WhileLoop(&'a Expr),
129 }
130
131 #[derive(Copy, Clone, PartialEq)]
132 struct Variable(u32);
133
134 #[derive(Copy, Clone, PartialEq)]
135 struct LiveNode(u32);
136
137 impl Variable {
138     fn get(&self) -> usize { self.0 as usize }
139 }
140
141 impl LiveNode {
142     fn get(&self) -> usize { self.0 as usize }
143 }
144
145 #[derive(Copy, Clone, PartialEq, Debug)]
146 enum LiveNodeKind {
147     FreeVarNode(Span),
148     ExprNode(Span),
149     VarDefNode(Span),
150     ExitNode
151 }
152
153 fn live_node_kind_to_string(lnk: LiveNodeKind, tcx: TyCtxt<'_, '_, '_>) -> String {
154     let cm = tcx.sess.source_map();
155     match lnk {
156         FreeVarNode(s) => {
157             format!("Free var node [{}]", cm.span_to_string(s))
158         }
159         ExprNode(s) => {
160             format!("Expr node [{}]", cm.span_to_string(s))
161         }
162         VarDefNode(s) => {
163             format!("Var def node [{}]", cm.span_to_string(s))
164         }
165         ExitNode => "Exit node".to_owned(),
166     }
167 }
168
169 impl<'a, 'tcx> Visitor<'tcx> for IrMaps<'a, 'tcx> {
170     fn nested_visit_map<'this>(&'this mut self) -> NestedVisitorMap<'this, 'tcx> {
171         NestedVisitorMap::OnlyBodies(&self.tcx.hir())
172     }
173
174     fn visit_fn(&mut self, fk: FnKind<'tcx>, fd: &'tcx hir::FnDecl,
175                 b: hir::BodyId, s: Span, id: HirId) {
176         visit_fn(self, fk, fd, b, s, id);
177     }
178
179     fn visit_local(&mut self, l: &'tcx hir::Local) { visit_local(self, l); }
180     fn visit_expr(&mut self, ex: &'tcx Expr) { visit_expr(self, ex); }
181     fn visit_arm(&mut self, a: &'tcx hir::Arm) { visit_arm(self, a); }
182 }
183
184 fn check_mod_liveness<'tcx>(tcx: TyCtxt<'_, 'tcx, 'tcx>, module_def_id: DefId) {
185     tcx.hir().visit_item_likes_in_module(module_def_id, &mut IrMaps::new(tcx).as_deep_visitor());
186 }
187
188 pub fn check_crate<'a, 'tcx>(tcx: TyCtxt<'a, 'tcx, 'tcx>) {
189     for &module in tcx.hir().krate().modules.keys() {
190         tcx.ensure().check_mod_liveness(tcx.hir().local_def_id(module));
191     }
192 }
193
194 pub fn provide(providers: &mut Providers<'_>) {
195     *providers = Providers {
196         check_mod_liveness,
197         ..*providers
198     };
199 }
200
201 impl fmt::Debug for LiveNode {
202     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
203         write!(f, "ln({})", self.get())
204     }
205 }
206
207 impl fmt::Debug for Variable {
208     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
209         write!(f, "v({})", self.get())
210     }
211 }
212
213 // ______________________________________________________________________
214 // Creating ir_maps
215 //
216 // This is the first pass and the one that drives the main
217 // computation.  It walks up and down the IR once.  On the way down,
218 // we count for each function the number of variables as well as
219 // liveness nodes.  A liveness node is basically an expression or
220 // capture clause that does something of interest: either it has
221 // interesting control flow or it uses/defines a local variable.
222 //
223 // On the way back up, at each function node we create liveness sets
224 // (we now know precisely how big to make our various vectors and so
225 // forth) and then do the data-flow propagation to compute the set
226 // of live variables at each program point.
227 //
228 // Finally, we run back over the IR one last time and, using the
229 // computed liveness, check various safety conditions.  For example,
230 // there must be no live nodes at the definition site for a variable
231 // unless it has an initializer.  Similarly, each non-mutable local
232 // variable must not be assigned if there is some successor
233 // assignment.  And so forth.
234
235 impl LiveNode {
236     fn is_valid(&self) -> bool {
237         self.0 != u32::MAX
238     }
239 }
240
241 fn invalid_node() -> LiveNode { LiveNode(u32::MAX) }
242
243 struct CaptureInfo {
244     ln: LiveNode,
245     var_hid: HirId
246 }
247
248 #[derive(Copy, Clone, Debug)]
249 struct LocalInfo {
250     id: HirId,
251     name: ast::Name,
252     is_shorthand: bool,
253 }
254
255 #[derive(Copy, Clone, Debug)]
256 enum VarKind {
257     Arg(HirId, ast::Name),
258     Local(LocalInfo),
259     CleanExit
260 }
261
262 struct IrMaps<'a, 'tcx: 'a> {
263     tcx: TyCtxt<'a, 'tcx, 'tcx>,
264     num_live_nodes: usize,
265     num_vars: usize,
266     live_node_map: HirIdMap<LiveNode>,
267     variable_map: HirIdMap<Variable>,
268     capture_info_map: NodeMap<Rc<Vec<CaptureInfo>>>,
269     var_kinds: Vec<VarKind>,
270     lnks: Vec<LiveNodeKind>,
271 }
272
273 impl<'a, 'tcx> IrMaps<'a, 'tcx> {
274     fn new(tcx: TyCtxt<'a, 'tcx, 'tcx>) -> IrMaps<'a, 'tcx> {
275         IrMaps {
276             tcx,
277             num_live_nodes: 0,
278             num_vars: 0,
279             live_node_map: HirIdMap::default(),
280             variable_map: HirIdMap::default(),
281             capture_info_map: Default::default(),
282             var_kinds: Vec::new(),
283             lnks: Vec::new(),
284         }
285     }
286
287     fn add_live_node(&mut self, lnk: LiveNodeKind) -> LiveNode {
288         let ln = LiveNode(self.num_live_nodes as u32);
289         self.lnks.push(lnk);
290         self.num_live_nodes += 1;
291
292         debug!("{:?} is of kind {}", ln,
293                live_node_kind_to_string(lnk, self.tcx));
294
295         ln
296     }
297
298     fn add_live_node_for_node(&mut self, hir_id: HirId, lnk: LiveNodeKind) {
299         let ln = self.add_live_node(lnk);
300         self.live_node_map.insert(hir_id, ln);
301
302         debug!("{:?} is node {:?}", ln, hir_id);
303     }
304
305     fn add_variable(&mut self, vk: VarKind) -> Variable {
306         let v = Variable(self.num_vars as u32);
307         self.var_kinds.push(vk);
308         self.num_vars += 1;
309
310         match vk {
311             Local(LocalInfo { id: node_id, .. }) | Arg(node_id, _) => {
312                 self.variable_map.insert(node_id, v);
313             },
314             CleanExit => {}
315         }
316
317         debug!("{:?} is {:?}", v, vk);
318
319         v
320     }
321
322     fn variable(&self, hir_id: HirId, span: Span) -> Variable {
323         match self.variable_map.get(&hir_id) {
324             Some(&var) => var,
325             None => {
326                 span_bug!(span, "no variable registered for id {:?}", hir_id);
327             }
328         }
329     }
330
331     fn variable_name(&self, var: Variable) -> String {
332         match self.var_kinds[var.get()] {
333             Local(LocalInfo { name, .. }) | Arg(_, name) => {
334                 name.to_string()
335             },
336             CleanExit => "<clean-exit>".to_owned()
337         }
338     }
339
340     fn variable_is_shorthand(&self, var: Variable) -> bool {
341         match self.var_kinds[var.get()] {
342             Local(LocalInfo { is_shorthand, .. }) => is_shorthand,
343             Arg(..) | CleanExit => false
344         }
345     }
346
347     fn set_captures(&mut self, node_id: NodeId, cs: Vec<CaptureInfo>) {
348         self.capture_info_map.insert(node_id, Rc::new(cs));
349     }
350
351     fn lnk(&self, ln: LiveNode) -> LiveNodeKind {
352         self.lnks[ln.get()]
353     }
354 }
355
356 fn visit_fn<'a, 'tcx: 'a>(ir: &mut IrMaps<'a, 'tcx>,
357                           fk: FnKind<'tcx>,
358                           decl: &'tcx hir::FnDecl,
359                           body_id: hir::BodyId,
360                           sp: Span,
361                           id: hir::HirId) {
362     debug!("visit_fn");
363
364     // swap in a new set of IR maps for this function body:
365     let mut fn_maps = IrMaps::new(ir.tcx);
366
367     // Don't run unused pass for #[derive()]
368     if let FnKind::Method(..) = fk {
369         let parent = ir.tcx.hir().get_parent_item(id);
370         if let Some(Node::Item(i)) = ir.tcx.hir().find_by_hir_id(parent) {
371             if i.attrs.iter().any(|a| a.check_name("automatically_derived")) {
372                 return;
373             }
374         }
375     }
376
377     debug!("creating fn_maps: {:?}", &fn_maps as *const IrMaps<'_, '_>);
378
379     let body = ir.tcx.hir().body(body_id);
380
381     for arg in &body.arguments {
382         arg.pat.each_binding(|_bm, hir_id, _x, ident| {
383             debug!("adding argument {:?}", hir_id);
384             fn_maps.add_variable(Arg(hir_id, ident.name));
385         })
386     };
387
388     // gather up the various local variables, significant expressions,
389     // and so forth:
390     intravisit::walk_fn(&mut fn_maps, fk, decl, body_id, sp, id);
391
392     // compute liveness
393     let mut lsets = Liveness::new(&mut fn_maps, body_id);
394     let entry_ln = lsets.compute(&body.value);
395
396     // check for various error conditions
397     lsets.visit_body(body);
398     lsets.warn_about_unused_args(body, entry_ln);
399 }
400
401 fn add_from_pat<'a, 'tcx>(ir: &mut IrMaps<'a, 'tcx>, pat: &P<hir::Pat>) {
402     // For struct patterns, take note of which fields used shorthand
403     // (`x` rather than `x: x`).
404     let mut shorthand_field_ids = HirIdSet::default();
405     let mut pats = VecDeque::new();
406     pats.push_back(pat);
407     while let Some(pat) = pats.pop_front() {
408         use crate::hir::PatKind::*;
409         match pat.node {
410             Binding(_, _, _, _, ref inner_pat) => {
411                 pats.extend(inner_pat.iter());
412             }
413             Struct(_, ref fields, _) => {
414                 for field in fields {
415                     if field.node.is_shorthand {
416                         shorthand_field_ids.insert(field.node.pat.hir_id);
417                     }
418                 }
419             }
420             Ref(ref inner_pat, _) |
421             Box(ref inner_pat) => {
422                 pats.push_back(inner_pat);
423             }
424             TupleStruct(_, ref inner_pats, _) |
425             Tuple(ref inner_pats, _) => {
426                 pats.extend(inner_pats.iter());
427             }
428             Slice(ref pre_pats, ref inner_pat, ref post_pats) => {
429                 pats.extend(pre_pats.iter());
430                 pats.extend(inner_pat.iter());
431                 pats.extend(post_pats.iter());
432             }
433             _ => {}
434         }
435     }
436
437     pat.each_binding(|_bm, hir_id, _sp, ident| {
438         ir.add_live_node_for_node(hir_id, VarDefNode(ident.span));
439         ir.add_variable(Local(LocalInfo {
440             id: hir_id,
441             name: ident.name,
442             is_shorthand: shorthand_field_ids.contains(&hir_id)
443         }));
444     });
445 }
446
447 fn visit_local<'a, 'tcx>(ir: &mut IrMaps<'a, 'tcx>, local: &'tcx hir::Local) {
448     add_from_pat(ir, &local.pat);
449     intravisit::walk_local(ir, local);
450 }
451
452 fn visit_arm<'a, 'tcx>(ir: &mut IrMaps<'a, 'tcx>, arm: &'tcx hir::Arm) {
453     for pat in &arm.pats {
454         add_from_pat(ir, pat);
455     }
456     intravisit::walk_arm(ir, arm);
457 }
458
459 fn visit_expr<'a, 'tcx>(ir: &mut IrMaps<'a, 'tcx>, expr: &'tcx Expr) {
460     match expr.node {
461       // live nodes required for uses or definitions of variables:
462       hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
463         debug!("expr {}: path that leads to {:?}", expr.id, path.def);
464         if let Def::Local(..) = path.def {
465             ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
466         }
467         intravisit::walk_expr(ir, expr);
468       }
469       hir::ExprKind::Closure(..) => {
470         // Interesting control flow (for loops can contain labeled
471         // breaks or continues)
472         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
473
474         // Make a live_node for each captured variable, with the span
475         // being the location that the variable is used.  This results
476         // in better error messages than just pointing at the closure
477         // construction site.
478         let mut call_caps = Vec::new();
479         ir.tcx.with_freevars(expr.id, |freevars| {
480             call_caps.extend(freevars.iter().filter_map(|fv| {
481                 if let Def::Local(rv) = fv.def {
482                     let fv_ln = ir.add_live_node(FreeVarNode(fv.span));
483                     let var_hid = ir.tcx.hir().node_to_hir_id(rv);
484                     Some(CaptureInfo { ln: fv_ln, var_hid })
485                 } else {
486                     None
487                 }
488             }));
489         });
490         ir.set_captures(expr.id, call_caps);
491
492         intravisit::walk_expr(ir, expr);
493       }
494
495       // live nodes required for interesting control flow:
496       hir::ExprKind::If(..) |
497       hir::ExprKind::Match(..) |
498       hir::ExprKind::While(..) |
499       hir::ExprKind::Loop(..) => {
500         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
501         intravisit::walk_expr(ir, expr);
502       }
503       hir::ExprKind::Binary(op, ..) if op.node.is_lazy() => {
504         ir.add_live_node_for_node(expr.hir_id, ExprNode(expr.span));
505         intravisit::walk_expr(ir, expr);
506       }
507
508       // otherwise, live nodes are not required:
509       hir::ExprKind::Index(..) |
510       hir::ExprKind::Field(..) |
511       hir::ExprKind::Array(..) |
512       hir::ExprKind::Call(..) |
513       hir::ExprKind::MethodCall(..) |
514       hir::ExprKind::Tup(..) |
515       hir::ExprKind::Binary(..) |
516       hir::ExprKind::AddrOf(..) |
517       hir::ExprKind::Cast(..) |
518       hir::ExprKind::Unary(..) |
519       hir::ExprKind::Break(..) |
520       hir::ExprKind::Continue(_) |
521       hir::ExprKind::Lit(_) |
522       hir::ExprKind::Ret(..) |
523       hir::ExprKind::Block(..) |
524       hir::ExprKind::Assign(..) |
525       hir::ExprKind::AssignOp(..) |
526       hir::ExprKind::Struct(..) |
527       hir::ExprKind::Repeat(..) |
528       hir::ExprKind::InlineAsm(..) |
529       hir::ExprKind::Box(..) |
530       hir::ExprKind::Yield(..) |
531       hir::ExprKind::Type(..) |
532       hir::ExprKind::Err |
533       hir::ExprKind::Path(hir::QPath::TypeRelative(..)) => {
534           intravisit::walk_expr(ir, expr);
535       }
536     }
537 }
538
539 // ______________________________________________________________________
540 // Computing liveness sets
541 //
542 // Actually we compute just a bit more than just liveness, but we use
543 // the same basic propagation framework in all cases.
544
545 #[derive(Clone, Copy)]
546 struct RWU {
547     reader: LiveNode,
548     writer: LiveNode,
549     used: bool
550 }
551
552 /// Conceptually, this is like a `Vec<RWU>`. But the number of `RWU`s can get
553 /// very large, so it uses a more compact representation that takes advantage
554 /// of the fact that when the number of `RWU`s is large, most of them have an
555 /// invalid reader and an invalid writer.
556 struct RWUTable {
557     /// Each entry in `packed_rwus` is either INV_INV_FALSE, INV_INV_TRUE, or
558     /// an index into `unpacked_rwus`. In the common cases, this compacts the
559     /// 65 bits of data into 32; in the uncommon cases, it expands the 65 bits
560     /// in 96.
561     ///
562     /// More compact representations are possible -- e.g., use only 2 bits per
563     /// packed `RWU` and make the secondary table a HashMap that maps from
564     /// indices to `RWU`s -- but this one strikes a good balance between size
565     /// and speed.
566     packed_rwus: Vec<u32>,
567     unpacked_rwus: Vec<RWU>,
568 }
569
570 // A constant representing `RWU { reader: invalid_node(); writer: invalid_node(); used: false }`.
571 const INV_INV_FALSE: u32 = u32::MAX;
572
573 // A constant representing `RWU { reader: invalid_node(); writer: invalid_node(); used: true }`.
574 const INV_INV_TRUE: u32 = u32::MAX - 1;
575
576 impl RWUTable {
577     fn new(num_rwus: usize) -> RWUTable {
578         Self {
579             packed_rwus: vec![INV_INV_FALSE; num_rwus],
580             unpacked_rwus: vec![],
581         }
582     }
583
584     fn get(&self, idx: usize) -> RWU {
585         let packed_rwu = self.packed_rwus[idx];
586         match packed_rwu {
587             INV_INV_FALSE => RWU { reader: invalid_node(), writer: invalid_node(), used: false },
588             INV_INV_TRUE => RWU { reader: invalid_node(), writer: invalid_node(), used: true },
589             _ => self.unpacked_rwus[packed_rwu as usize],
590         }
591     }
592
593     fn get_reader(&self, idx: usize) -> LiveNode {
594         let packed_rwu = self.packed_rwus[idx];
595         match packed_rwu {
596             INV_INV_FALSE | INV_INV_TRUE => invalid_node(),
597             _ => self.unpacked_rwus[packed_rwu as usize].reader,
598         }
599     }
600
601     fn get_writer(&self, idx: usize) -> LiveNode {
602         let packed_rwu = self.packed_rwus[idx];
603         match packed_rwu {
604             INV_INV_FALSE | INV_INV_TRUE => invalid_node(),
605             _ => self.unpacked_rwus[packed_rwu as usize].writer,
606         }
607     }
608
609     fn get_used(&self, idx: usize) -> bool {
610         let packed_rwu = self.packed_rwus[idx];
611         match packed_rwu {
612             INV_INV_FALSE => false,
613             INV_INV_TRUE => true,
614             _ => self.unpacked_rwus[packed_rwu as usize].used,
615         }
616     }
617
618     #[inline]
619     fn copy_packed(&mut self, dst_idx: usize, src_idx: usize) {
620         self.packed_rwus[dst_idx] = self.packed_rwus[src_idx];
621     }
622
623     fn assign_unpacked(&mut self, idx: usize, rwu: RWU) {
624         if rwu.reader == invalid_node() && rwu.writer == invalid_node() {
625             // When we overwrite an indexing entry in `self.packed_rwus` with
626             // `INV_INV_{TRUE,FALSE}` we don't remove the corresponding entry
627             // from `self.unpacked_rwus`; it's not worth the effort, and we
628             // can't have entries shifting around anyway.
629             self.packed_rwus[idx] = if rwu.used {
630                 INV_INV_TRUE
631             } else {
632                 INV_INV_FALSE
633             }
634         } else {
635             // Add a new RWU to `unpacked_rwus` and make `packed_rwus[idx]`
636             // point to it.
637             self.packed_rwus[idx] = self.unpacked_rwus.len() as u32;
638             self.unpacked_rwus.push(rwu);
639         }
640     }
641
642     fn assign_inv_inv(&mut self, idx: usize) {
643         self.packed_rwus[idx] = if self.get_used(idx) {
644             INV_INV_TRUE
645         } else {
646             INV_INV_FALSE
647         };
648     }
649 }
650
651 #[derive(Copy, Clone)]
652 struct Specials {
653     exit_ln: LiveNode,
654     fallthrough_ln: LiveNode,
655     clean_exit_var: Variable
656 }
657
658 const ACC_READ: u32 = 1;
659 const ACC_WRITE: u32 = 2;
660 const ACC_USE: u32 = 4;
661
662 struct Liveness<'a, 'tcx: 'a> {
663     ir: &'a mut IrMaps<'a, 'tcx>,
664     tables: &'a ty::TypeckTables<'tcx>,
665     s: Specials,
666     successors: Vec<LiveNode>,
667     rwu_table: RWUTable,
668
669     // mappings from loop node ID to LiveNode
670     // ("break" label should map to loop node ID,
671     // it probably doesn't now)
672     break_ln: NodeMap<LiveNode>,
673     cont_ln: NodeMap<LiveNode>,
674 }
675
676 impl<'a, 'tcx> Liveness<'a, 'tcx> {
677     fn new(ir: &'a mut IrMaps<'a, 'tcx>, body: hir::BodyId) -> Liveness<'a, 'tcx> {
678         // Special nodes and variables:
679         // - exit_ln represents the end of the fn, either by return or panic
680         // - implicit_ret_var is a pseudo-variable that represents
681         //   an implicit return
682         let specials = Specials {
683             exit_ln: ir.add_live_node(ExitNode),
684             fallthrough_ln: ir.add_live_node(ExitNode),
685             clean_exit_var: ir.add_variable(CleanExit)
686         };
687
688         let tables = ir.tcx.body_tables(body);
689
690         let num_live_nodes = ir.num_live_nodes;
691         let num_vars = ir.num_vars;
692
693         Liveness {
694             ir,
695             tables,
696             s: specials,
697             successors: vec![invalid_node(); num_live_nodes],
698             rwu_table: RWUTable::new(num_live_nodes * num_vars),
699             break_ln: Default::default(),
700             cont_ln: Default::default(),
701         }
702     }
703
704     fn live_node(&self, hir_id: HirId, span: Span) -> LiveNode {
705         match self.ir.live_node_map.get(&hir_id) {
706           Some(&ln) => ln,
707           None => {
708             // This must be a mismatch between the ir_map construction
709             // above and the propagation code below; the two sets of
710             // code have to agree about which AST nodes are worth
711             // creating liveness nodes for.
712             span_bug!(
713                 span,
714                 "no live node registered for node {:?}",
715                 hir_id);
716           }
717         }
718     }
719
720     fn variable(&self, hir_id: HirId, span: Span) -> Variable {
721         self.ir.variable(hir_id, span)
722     }
723
724     fn pat_bindings<F>(&mut self, pat: &hir::Pat, mut f: F) where
725         F: FnMut(&mut Liveness<'a, 'tcx>, LiveNode, Variable, Span, HirId),
726     {
727         pat.each_binding(|_bm, hir_id, sp, n| {
728             let ln = self.live_node(hir_id, sp);
729             let var = self.variable(hir_id, n.span);
730             f(self, ln, var, n.span, hir_id);
731         })
732     }
733
734     fn arm_pats_bindings<F>(&mut self, pat: Option<&hir::Pat>, f: F) where
735         F: FnMut(&mut Liveness<'a, 'tcx>, LiveNode, Variable, Span, HirId),
736     {
737         if let Some(pat) = pat {
738             self.pat_bindings(pat, f);
739         }
740     }
741
742     fn define_bindings_in_pat(&mut self, pat: &hir::Pat, succ: LiveNode)
743                               -> LiveNode {
744         self.define_bindings_in_arm_pats(Some(pat), succ)
745     }
746
747     fn define_bindings_in_arm_pats(&mut self, pat: Option<&hir::Pat>, succ: LiveNode)
748                                    -> LiveNode {
749         let mut succ = succ;
750         self.arm_pats_bindings(pat, |this, ln, var, _sp, _id| {
751             this.init_from_succ(ln, succ);
752             this.define(ln, var);
753             succ = ln;
754         });
755         succ
756     }
757
758     fn idx(&self, ln: LiveNode, var: Variable) -> usize {
759         ln.get() * self.ir.num_vars + var.get()
760     }
761
762     fn live_on_entry(&self, ln: LiveNode, var: Variable) -> Option<LiveNodeKind> {
763         assert!(ln.is_valid());
764         let reader = self.rwu_table.get_reader(self.idx(ln, var));
765         if reader.is_valid() { Some(self.ir.lnk(reader)) } else { None }
766     }
767
768     // Is this variable live on entry to any of its successor nodes?
769     fn live_on_exit(&self, ln: LiveNode, var: Variable)
770                     -> Option<LiveNodeKind> {
771         let successor = self.successors[ln.get()];
772         self.live_on_entry(successor, var)
773     }
774
775     fn used_on_entry(&self, ln: LiveNode, var: Variable) -> bool {
776         assert!(ln.is_valid());
777         self.rwu_table.get_used(self.idx(ln, var))
778     }
779
780     fn assigned_on_entry(&self, ln: LiveNode, var: Variable)
781                          -> Option<LiveNodeKind> {
782         assert!(ln.is_valid());
783         let writer = self.rwu_table.get_writer(self.idx(ln, var));
784         if writer.is_valid() { Some(self.ir.lnk(writer)) } else { None }
785     }
786
787     fn assigned_on_exit(&self, ln: LiveNode, var: Variable)
788                         -> Option<LiveNodeKind> {
789         let successor = self.successors[ln.get()];
790         self.assigned_on_entry(successor, var)
791     }
792
793     fn indices2<F>(&mut self, ln: LiveNode, succ_ln: LiveNode, mut op: F) where
794         F: FnMut(&mut Liveness<'a, 'tcx>, usize, usize),
795     {
796         let node_base_idx = self.idx(ln, Variable(0));
797         let succ_base_idx = self.idx(succ_ln, Variable(0));
798         for var_idx in 0..self.ir.num_vars {
799             op(self, node_base_idx + var_idx, succ_base_idx + var_idx);
800         }
801     }
802
803     fn write_vars<F>(&self,
804                      wr: &mut dyn Write,
805                      ln: LiveNode,
806                      mut test: F)
807                      -> io::Result<()> where
808         F: FnMut(usize) -> LiveNode,
809     {
810         let node_base_idx = self.idx(ln, Variable(0));
811         for var_idx in 0..self.ir.num_vars {
812             let idx = node_base_idx + var_idx;
813             if test(idx).is_valid() {
814                 write!(wr, " {:?}", Variable(var_idx as u32))?;
815             }
816         }
817         Ok(())
818     }
819
820
821     #[allow(unused_must_use)]
822     fn ln_str(&self, ln: LiveNode) -> String {
823         let mut wr = Vec::new();
824         {
825             let wr = &mut wr as &mut dyn Write;
826             write!(wr, "[ln({:?}) of kind {:?} reads", ln.get(), self.ir.lnk(ln));
827             self.write_vars(wr, ln, |idx| self.rwu_table.get_reader(idx));
828             write!(wr, "  writes");
829             self.write_vars(wr, ln, |idx| self.rwu_table.get_writer(idx));
830             write!(wr, "  precedes {:?}]", self.successors[ln.get()]);
831         }
832         String::from_utf8(wr).unwrap()
833     }
834
835     fn init_empty(&mut self, ln: LiveNode, succ_ln: LiveNode) {
836         self.successors[ln.get()] = succ_ln;
837
838         // It is not necessary to initialize the RWUs here because they are all
839         // set to INV_INV_FALSE when they are created, and the sets only grow
840         // during iterations.
841     }
842
843     fn init_from_succ(&mut self, ln: LiveNode, succ_ln: LiveNode) {
844         // more efficient version of init_empty() / merge_from_succ()
845         self.successors[ln.get()] = succ_ln;
846
847         self.indices2(ln, succ_ln, |this, idx, succ_idx| {
848             this.rwu_table.copy_packed(idx, succ_idx);
849         });
850         debug!("init_from_succ(ln={}, succ={})",
851                self.ln_str(ln), self.ln_str(succ_ln));
852     }
853
854     fn merge_from_succ(&mut self,
855                        ln: LiveNode,
856                        succ_ln: LiveNode,
857                        first_merge: bool)
858                        -> bool {
859         if ln == succ_ln { return false; }
860
861         let mut changed = false;
862         self.indices2(ln, succ_ln, |this, idx, succ_idx| {
863             let mut rwu = this.rwu_table.get(idx);
864             let succ_rwu = this.rwu_table.get(succ_idx);
865             if succ_rwu.reader.is_valid() && !rwu.reader.is_valid() {
866                 rwu.reader = succ_rwu.reader;
867                 changed = true
868             }
869
870             if succ_rwu.writer.is_valid() && !rwu.writer.is_valid() {
871                 rwu.writer = succ_rwu.writer;
872                 changed = true
873             }
874
875             if succ_rwu.used && !rwu.used {
876                 rwu.used = true;
877                 changed = true;
878             }
879
880             if changed {
881                 this.rwu_table.assign_unpacked(idx, rwu);
882             }
883         });
884
885         debug!("merge_from_succ(ln={:?}, succ={}, first_merge={}, changed={})",
886                ln, self.ln_str(succ_ln), first_merge, changed);
887         return changed;
888     }
889
890     // Indicates that a local variable was *defined*; we know that no
891     // uses of the variable can precede the definition (resolve checks
892     // this) so we just clear out all the data.
893     fn define(&mut self, writer: LiveNode, var: Variable) {
894         let idx = self.idx(writer, var);
895         self.rwu_table.assign_inv_inv(idx);
896
897         debug!("{:?} defines {:?} (idx={}): {}", writer, var,
898                idx, self.ln_str(writer));
899     }
900
901     // Either read, write, or both depending on the acc bitset
902     fn acc(&mut self, ln: LiveNode, var: Variable, acc: u32) {
903         debug!("{:?} accesses[{:x}] {:?}: {}",
904                ln, acc, var, self.ln_str(ln));
905
906         let idx = self.idx(ln, var);
907         let mut rwu = self.rwu_table.get(idx);
908
909         if (acc & ACC_WRITE) != 0 {
910             rwu.reader = invalid_node();
911             rwu.writer = ln;
912         }
913
914         // Important: if we both read/write, must do read second
915         // or else the write will override.
916         if (acc & ACC_READ) != 0 {
917             rwu.reader = ln;
918         }
919
920         if (acc & ACC_USE) != 0 {
921             rwu.used = true;
922         }
923
924         self.rwu_table.assign_unpacked(idx, rwu);
925     }
926
927     fn compute(&mut self, body: &hir::Expr) -> LiveNode {
928         debug!("compute: using id for body, {}", self.ir.tcx.hir().node_to_pretty_string(body.id));
929
930         // the fallthrough exit is only for those cases where we do not
931         // explicitly return:
932         let s = self.s;
933         self.init_from_succ(s.fallthrough_ln, s.exit_ln);
934         self.acc(s.fallthrough_ln, s.clean_exit_var, ACC_READ);
935
936         let entry_ln = self.propagate_through_expr(body, s.fallthrough_ln);
937
938         // hack to skip the loop unless debug! is enabled:
939         debug!("^^ liveness computation results for body {} (entry={:?})", {
940                    for ln_idx in 0..self.ir.num_live_nodes {
941                         debug!("{:?}", self.ln_str(LiveNode(ln_idx as u32)));
942                    }
943                    body.id
944                },
945                entry_ln);
946
947         entry_ln
948     }
949
950     fn propagate_through_block(&mut self, blk: &hir::Block, succ: LiveNode)
951                                -> LiveNode {
952         if blk.targeted_by_break {
953             let node_id = self.ir.tcx.hir().hir_to_node_id(blk.hir_id);
954             self.break_ln.insert(node_id, succ);
955         }
956         let succ = self.propagate_through_opt_expr(blk.expr.as_ref().map(|e| &**e), succ);
957         blk.stmts.iter().rev().fold(succ, |succ, stmt| {
958             self.propagate_through_stmt(stmt, succ)
959         })
960     }
961
962     fn propagate_through_stmt(&mut self, stmt: &hir::Stmt, succ: LiveNode)
963                               -> LiveNode {
964         match stmt.node {
965             hir::StmtKind::Local(ref local) => {
966                 // Note: we mark the variable as defined regardless of whether
967                 // there is an initializer.  Initially I had thought to only mark
968                 // the live variable as defined if it was initialized, and then we
969                 // could check for uninit variables just by scanning what is live
970                 // at the start of the function. But that doesn't work so well for
971                 // immutable variables defined in a loop:
972                 //     loop { let x; x = 5; }
973                 // because the "assignment" loops back around and generates an error.
974                 //
975                 // So now we just check that variables defined w/o an
976                 // initializer are not live at the point of their
977                 // initialization, which is mildly more complex than checking
978                 // once at the func header but otherwise equivalent.
979
980                 let succ = self.propagate_through_opt_expr(local.init.as_ref().map(|e| &**e), succ);
981                 self.define_bindings_in_pat(&local.pat, succ)
982             }
983             hir::StmtKind::Item(..) => succ,
984             hir::StmtKind::Expr(ref expr) | hir::StmtKind::Semi(ref expr) => {
985                 self.propagate_through_expr(&expr, succ)
986             }
987         }
988     }
989
990     fn propagate_through_exprs(&mut self, exprs: &[Expr], succ: LiveNode)
991                                -> LiveNode {
992         exprs.iter().rev().fold(succ, |succ, expr| {
993             self.propagate_through_expr(&expr, succ)
994         })
995     }
996
997     fn propagate_through_opt_expr(&mut self,
998                                   opt_expr: Option<&Expr>,
999                                   succ: LiveNode)
1000                                   -> LiveNode {
1001         opt_expr.map_or(succ, |expr| self.propagate_through_expr(expr, succ))
1002     }
1003
1004     fn propagate_through_expr(&mut self, expr: &Expr, succ: LiveNode)
1005                               -> LiveNode {
1006         debug!("propagate_through_expr: {}", self.ir.tcx.hir().node_to_pretty_string(expr.id));
1007
1008         match expr.node {
1009             // Interesting cases with control flow or which gen/kill
1010             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1011                 self.access_path(expr.hir_id, path, succ, ACC_READ | ACC_USE)
1012             }
1013
1014             hir::ExprKind::Field(ref e, _) => {
1015                 self.propagate_through_expr(&e, succ)
1016             }
1017
1018             hir::ExprKind::Closure(..) => {
1019                 debug!("{} is an ExprKind::Closure",
1020                        self.ir.tcx.hir().node_to_pretty_string(expr.id));
1021
1022                 // the construction of a closure itself is not important,
1023                 // but we have to consider the closed over variables.
1024                 let caps = self.ir.capture_info_map.get(&expr.id).cloned().unwrap_or_else(||
1025                     span_bug!(expr.span, "no registered caps"));
1026
1027                 caps.iter().rev().fold(succ, |succ, cap| {
1028                     self.init_from_succ(cap.ln, succ);
1029                     let var = self.variable(cap.var_hid, expr.span);
1030                     self.acc(cap.ln, var, ACC_READ | ACC_USE);
1031                     cap.ln
1032                 })
1033             }
1034
1035             hir::ExprKind::If(ref cond, ref then, ref els) => {
1036                 //
1037                 //     (cond)
1038                 //       |
1039                 //       v
1040                 //     (expr)
1041                 //     /   \
1042                 //    |     |
1043                 //    v     v
1044                 //  (then)(els)
1045                 //    |     |
1046                 //    v     v
1047                 //   (  succ  )
1048                 //
1049                 let else_ln = self.propagate_through_opt_expr(els.as_ref().map(|e| &**e), succ);
1050                 let then_ln = self.propagate_through_expr(&then, succ);
1051                 let ln = self.live_node(expr.hir_id, expr.span);
1052                 self.init_from_succ(ln, else_ln);
1053                 self.merge_from_succ(ln, then_ln, false);
1054                 self.propagate_through_expr(&cond, ln)
1055             }
1056
1057             hir::ExprKind::While(ref cond, ref blk, _) => {
1058                 self.propagate_through_loop(expr, WhileLoop(&cond), &blk, succ)
1059             }
1060
1061             // Note that labels have been resolved, so we don't need to look
1062             // at the label ident
1063             hir::ExprKind::Loop(ref blk, _, _) => {
1064                 self.propagate_through_loop(expr, LoopLoop, &blk, succ)
1065             }
1066
1067             hir::ExprKind::Match(ref e, ref arms, _) => {
1068                 //
1069                 //      (e)
1070                 //       |
1071                 //       v
1072                 //     (expr)
1073                 //     / | \
1074                 //    |  |  |
1075                 //    v  v  v
1076                 //   (..arms..)
1077                 //    |  |  |
1078                 //    v  v  v
1079                 //   (  succ  )
1080                 //
1081                 //
1082                 let ln = self.live_node(expr.hir_id, expr.span);
1083                 self.init_empty(ln, succ);
1084                 let mut first_merge = true;
1085                 for arm in arms {
1086                     let body_succ = self.propagate_through_expr(&arm.body, succ);
1087
1088                     let guard_succ = self.propagate_through_opt_expr(
1089                         arm.guard.as_ref().map(|hir::Guard::If(e)| &**e),
1090                         body_succ
1091                     );
1092                     // only consider the first pattern; any later patterns must have
1093                     // the same bindings, and we also consider the first pattern to be
1094                     // the "authoritative" set of ids
1095                     let arm_succ =
1096                         self.define_bindings_in_arm_pats(arm.pats.first().map(|p| &**p),
1097                                                          guard_succ);
1098                     self.merge_from_succ(ln, arm_succ, first_merge);
1099                     first_merge = false;
1100                 };
1101                 self.propagate_through_expr(&e, ln)
1102             }
1103
1104             hir::ExprKind::Ret(ref o_e) => {
1105                 // ignore succ and subst exit_ln:
1106                 let exit_ln = self.s.exit_ln;
1107                 self.propagate_through_opt_expr(o_e.as_ref().map(|e| &**e), exit_ln)
1108             }
1109
1110             hir::ExprKind::Break(label, ref opt_expr) => {
1111                 // Find which label this break jumps to
1112                 let target = match label.target_id {
1113                     Ok(node_id) => self.break_ln.get(&node_id),
1114                     Err(err) => span_bug!(expr.span, "loop scope error: {}", err),
1115                 }.cloned();
1116
1117                 // Now that we know the label we're going to,
1118                 // look it up in the break loop nodes table
1119
1120                 match target {
1121                     Some(b) => self.propagate_through_opt_expr(opt_expr.as_ref().map(|e| &**e), b),
1122                     None => span_bug!(expr.span, "break to unknown label")
1123                 }
1124             }
1125
1126             hir::ExprKind::Continue(label) => {
1127                 // Find which label this expr continues to
1128                 let sc = label.target_id.unwrap_or_else(|err|
1129                     span_bug!(expr.span, "loop scope error: {}", err));
1130
1131                 // Now that we know the label we're going to,
1132                 // look it up in the continue loop nodes table
1133                 self.cont_ln.get(&sc).cloned().unwrap_or_else(||
1134                     span_bug!(expr.span, "continue to unknown label"))
1135             }
1136
1137             hir::ExprKind::Assign(ref l, ref r) => {
1138                 // see comment on places in
1139                 // propagate_through_place_components()
1140                 let succ = self.write_place(&l, succ, ACC_WRITE);
1141                 let succ = self.propagate_through_place_components(&l, succ);
1142                 self.propagate_through_expr(&r, succ)
1143             }
1144
1145             hir::ExprKind::AssignOp(_, ref l, ref r) => {
1146                 // an overloaded assign op is like a method call
1147                 if self.tables.is_method_call(expr) {
1148                     let succ = self.propagate_through_expr(&l, succ);
1149                     self.propagate_through_expr(&r, succ)
1150                 } else {
1151                     // see comment on places in
1152                     // propagate_through_place_components()
1153                     let succ = self.write_place(&l, succ, ACC_WRITE|ACC_READ);
1154                     let succ = self.propagate_through_expr(&r, succ);
1155                     self.propagate_through_place_components(&l, succ)
1156                 }
1157             }
1158
1159             // Uninteresting cases: just propagate in rev exec order
1160
1161             hir::ExprKind::Array(ref exprs) => {
1162                 self.propagate_through_exprs(exprs, succ)
1163             }
1164
1165             hir::ExprKind::Struct(_, ref fields, ref with_expr) => {
1166                 let succ = self.propagate_through_opt_expr(with_expr.as_ref().map(|e| &**e), succ);
1167                 fields.iter().rev().fold(succ, |succ, field| {
1168                     self.propagate_through_expr(&field.expr, succ)
1169                 })
1170             }
1171
1172             hir::ExprKind::Call(ref f, ref args) => {
1173                 let m = self.ir.tcx.hir().get_module_parent(expr.id);
1174                 let succ = if self.ir.tcx.is_ty_uninhabited_from(m, self.tables.expr_ty(expr)) {
1175                     self.s.exit_ln
1176                 } else {
1177                     succ
1178                 };
1179                 let succ = self.propagate_through_exprs(args, succ);
1180                 self.propagate_through_expr(&f, succ)
1181             }
1182
1183             hir::ExprKind::MethodCall(.., ref args) => {
1184                 let m = self.ir.tcx.hir().get_module_parent(expr.id);
1185                 let succ = if self.ir.tcx.is_ty_uninhabited_from(m, self.tables.expr_ty(expr)) {
1186                     self.s.exit_ln
1187                 } else {
1188                     succ
1189                 };
1190
1191                 self.propagate_through_exprs(args, succ)
1192             }
1193
1194             hir::ExprKind::Tup(ref exprs) => {
1195                 self.propagate_through_exprs(exprs, succ)
1196             }
1197
1198             hir::ExprKind::Binary(op, ref l, ref r) if op.node.is_lazy() => {
1199                 let r_succ = self.propagate_through_expr(&r, succ);
1200
1201                 let ln = self.live_node(expr.hir_id, expr.span);
1202                 self.init_from_succ(ln, succ);
1203                 self.merge_from_succ(ln, r_succ, false);
1204
1205                 self.propagate_through_expr(&l, ln)
1206             }
1207
1208             hir::ExprKind::Index(ref l, ref r) |
1209             hir::ExprKind::Binary(_, ref l, ref r) => {
1210                 let r_succ = self.propagate_through_expr(&r, succ);
1211                 self.propagate_through_expr(&l, r_succ)
1212             }
1213
1214             hir::ExprKind::Box(ref e) |
1215             hir::ExprKind::AddrOf(_, ref e) |
1216             hir::ExprKind::Cast(ref e, _) |
1217             hir::ExprKind::Type(ref e, _) |
1218             hir::ExprKind::Unary(_, ref e) |
1219             hir::ExprKind::Yield(ref e) |
1220             hir::ExprKind::Repeat(ref e, _) => {
1221                 self.propagate_through_expr(&e, succ)
1222             }
1223
1224             hir::ExprKind::InlineAsm(ref ia, ref outputs, ref inputs) => {
1225                 let succ = ia.outputs.iter().zip(outputs).rev().fold(succ, |succ, (o, output)| {
1226                 // see comment on places
1227                 // in propagate_through_place_components()
1228                 if o.is_indirect {
1229                     self.propagate_through_expr(output, succ)
1230                 } else {
1231                     let acc = if o.is_rw { ACC_WRITE|ACC_READ } else { ACC_WRITE };
1232                     let succ = self.write_place(output, succ, acc);
1233                     self.propagate_through_place_components(output, succ)
1234                 }});
1235
1236                 // Inputs are executed first. Propagate last because of rev order
1237                 self.propagate_through_exprs(inputs, succ)
1238             }
1239
1240             hir::ExprKind::Lit(..) | hir::ExprKind::Err |
1241             hir::ExprKind::Path(hir::QPath::TypeRelative(..)) => {
1242                 succ
1243             }
1244
1245             // Note that labels have been resolved, so we don't need to look
1246             // at the label ident
1247             hir::ExprKind::Block(ref blk, _) => {
1248                 self.propagate_through_block(&blk, succ)
1249             }
1250         }
1251     }
1252
1253     fn propagate_through_place_components(&mut self,
1254                                           expr: &Expr,
1255                                           succ: LiveNode)
1256                                           -> LiveNode {
1257         // # Places
1258         //
1259         // In general, the full flow graph structure for an
1260         // assignment/move/etc can be handled in one of two ways,
1261         // depending on whether what is being assigned is a "tracked
1262         // value" or not. A tracked value is basically a local
1263         // variable or argument.
1264         //
1265         // The two kinds of graphs are:
1266         //
1267         //    Tracked place          Untracked place
1268         // ----------------------++-----------------------
1269         //                       ||
1270         //         |             ||           |
1271         //         v             ||           v
1272         //     (rvalue)          ||       (rvalue)
1273         //         |             ||           |
1274         //         v             ||           v
1275         // (write of place)     ||   (place components)
1276         //         |             ||           |
1277         //         v             ||           v
1278         //      (succ)           ||        (succ)
1279         //                       ||
1280         // ----------------------++-----------------------
1281         //
1282         // I will cover the two cases in turn:
1283         //
1284         // # Tracked places
1285         //
1286         // A tracked place is a local variable/argument `x`.  In
1287         // these cases, the link_node where the write occurs is linked
1288         // to node id of `x`.  The `write_place()` routine generates
1289         // the contents of this node.  There are no subcomponents to
1290         // consider.
1291         //
1292         // # Non-tracked places
1293         //
1294         // These are places like `x[5]` or `x.f`.  In that case, we
1295         // basically ignore the value which is written to but generate
1296         // reads for the components---`x` in these two examples.  The
1297         // components reads are generated by
1298         // `propagate_through_place_components()` (this fn).
1299         //
1300         // # Illegal places
1301         //
1302         // It is still possible to observe assignments to non-places;
1303         // these errors are detected in the later pass borrowck.  We
1304         // just ignore such cases and treat them as reads.
1305
1306         match expr.node {
1307             hir::ExprKind::Path(_) => succ,
1308             hir::ExprKind::Field(ref e, _) => self.propagate_through_expr(&e, succ),
1309             _ => self.propagate_through_expr(expr, succ)
1310         }
1311     }
1312
1313     // see comment on propagate_through_place()
1314     fn write_place(&mut self, expr: &Expr, succ: LiveNode, acc: u32) -> LiveNode {
1315         match expr.node {
1316             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1317                 self.access_path(expr.hir_id, path, succ, acc)
1318             }
1319
1320             // We do not track other places, so just propagate through
1321             // to their subcomponents.  Also, it may happen that
1322             // non-places occur here, because those are detected in the
1323             // later pass borrowck.
1324             _ => succ
1325         }
1326     }
1327
1328     fn access_var(&mut self, hir_id: HirId, nid: NodeId, succ: LiveNode, acc: u32, span: Span)
1329                   -> LiveNode {
1330         let ln = self.live_node(hir_id, span);
1331         if acc != 0 {
1332             self.init_from_succ(ln, succ);
1333             let var_hid = self.ir.tcx.hir().node_to_hir_id(nid);
1334             let var = self.variable(var_hid, span);
1335             self.acc(ln, var, acc);
1336         }
1337         ln
1338     }
1339
1340     fn access_path(&mut self, hir_id: HirId, path: &hir::Path, succ: LiveNode, acc: u32)
1341                    -> LiveNode {
1342         match path.def {
1343             Def::Local(nid) => {
1344               self.access_var(hir_id, nid, succ, acc, path.span)
1345             }
1346             _ => succ
1347         }
1348     }
1349
1350     fn propagate_through_loop(&mut self,
1351                               expr: &Expr,
1352                               kind: LoopKind<'_>,
1353                               body: &hir::Block,
1354                               succ: LiveNode)
1355                               -> LiveNode {
1356         /*
1357
1358         We model control flow like this:
1359
1360               (cond) <--+
1361                 |       |
1362                 v       |
1363           +-- (expr)    |
1364           |     |       |
1365           |     v       |
1366           |   (body) ---+
1367           |
1368           |
1369           v
1370         (succ)
1371
1372         */
1373
1374
1375         // first iteration:
1376         let mut first_merge = true;
1377         let ln = self.live_node(expr.hir_id, expr.span);
1378         self.init_empty(ln, succ);
1379         match kind {
1380             LoopLoop => {}
1381             _ => {
1382                 // If this is not a `loop` loop, then it's possible we bypass
1383                 // the body altogether. Otherwise, the only way is via a `break`
1384                 // in the loop body.
1385                 self.merge_from_succ(ln, succ, first_merge);
1386                 first_merge = false;
1387             }
1388         }
1389         debug!("propagate_through_loop: using id for loop body {} {}",
1390                expr.id, self.ir.tcx.hir().hir_to_pretty_string(body.hir_id));
1391
1392
1393         self.break_ln.insert(expr.id, succ);
1394
1395         let cond_ln = match kind {
1396             LoopLoop => ln,
1397             WhileLoop(ref cond) => self.propagate_through_expr(&cond, ln),
1398         };
1399
1400         self.cont_ln.insert(expr.id, cond_ln);
1401
1402         let body_ln = self.propagate_through_block(body, cond_ln);
1403
1404         // repeat until fixed point is reached:
1405         while self.merge_from_succ(ln, body_ln, first_merge) {
1406             first_merge = false;
1407
1408             let new_cond_ln = match kind {
1409                 LoopLoop => ln,
1410                 WhileLoop(ref cond) => {
1411                     self.propagate_through_expr(&cond, ln)
1412                 }
1413             };
1414             assert_eq!(cond_ln, new_cond_ln);
1415             assert_eq!(body_ln, self.propagate_through_block(body, cond_ln));
1416         }
1417
1418         cond_ln
1419     }
1420 }
1421
1422 // _______________________________________________________________________
1423 // Checking for error conditions
1424
1425 impl<'a, 'tcx> Visitor<'tcx> for Liveness<'a, 'tcx> {
1426     fn nested_visit_map<'this>(&'this mut self) -> NestedVisitorMap<'this, 'tcx> {
1427         NestedVisitorMap::None
1428     }
1429
1430     fn visit_local(&mut self, l: &'tcx hir::Local) {
1431         check_local(self, l);
1432     }
1433     fn visit_expr(&mut self, ex: &'tcx Expr) {
1434         check_expr(self, ex);
1435     }
1436     fn visit_arm(&mut self, a: &'tcx hir::Arm) {
1437         check_arm(self, a);
1438     }
1439 }
1440
1441 fn check_local<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, local: &'tcx hir::Local) {
1442     match local.init {
1443         Some(_) => {
1444             this.warn_about_unused_or_dead_vars_in_pat(&local.pat);
1445         },
1446         None => {
1447             this.pat_bindings(&local.pat, |this, ln, var, sp, id| {
1448                 let span = local.pat.simple_ident().map_or(sp, |ident| ident.span);
1449                 this.warn_about_unused(vec![span], id, ln, var);
1450             })
1451         }
1452     }
1453
1454     intravisit::walk_local(this, local);
1455 }
1456
1457 fn check_arm<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, arm: &'tcx hir::Arm) {
1458     // Only consider the variable from the first pattern; any later patterns must have
1459     // the same bindings, and we also consider the first pattern to be the "authoritative" set of
1460     // ids. However, we should take the spans of variables with the same name from the later
1461     // patterns so the suggestions to prefix with underscores will apply to those too.
1462     let mut vars: BTreeMap<String, (LiveNode, Variable, HirId, Vec<Span>)> = Default::default();
1463
1464     for pat in &arm.pats {
1465         this.arm_pats_bindings(Some(&*pat), |this, ln, var, sp, id| {
1466             let name = this.ir.variable_name(var);
1467             vars.entry(name)
1468                 .and_modify(|(.., spans)| {
1469                     spans.push(sp);
1470                 })
1471                 .or_insert_with(|| {
1472                     (ln, var, id, vec![sp])
1473                 });
1474         });
1475     }
1476
1477     for (_, (ln, var, id, spans)) in vars {
1478         this.warn_about_unused(spans, id, ln, var);
1479     }
1480
1481     intravisit::walk_arm(this, arm);
1482 }
1483
1484 fn check_expr<'a, 'tcx>(this: &mut Liveness<'a, 'tcx>, expr: &'tcx Expr) {
1485     match expr.node {
1486         hir::ExprKind::Assign(ref l, _) => {
1487             this.check_place(&l);
1488
1489             intravisit::walk_expr(this, expr);
1490         }
1491
1492         hir::ExprKind::AssignOp(_, ref l, _) => {
1493             if !this.tables.is_method_call(expr) {
1494                 this.check_place(&l);
1495             }
1496
1497             intravisit::walk_expr(this, expr);
1498         }
1499
1500         hir::ExprKind::InlineAsm(ref ia, ref outputs, ref inputs) => {
1501             for input in inputs {
1502                 this.visit_expr(input);
1503             }
1504
1505             // Output operands must be places
1506             for (o, output) in ia.outputs.iter().zip(outputs) {
1507                 if !o.is_indirect {
1508                     this.check_place(output);
1509                 }
1510                 this.visit_expr(output);
1511             }
1512
1513             intravisit::walk_expr(this, expr);
1514         }
1515
1516         // no correctness conditions related to liveness
1517         hir::ExprKind::Call(..) | hir::ExprKind::MethodCall(..) | hir::ExprKind::If(..) |
1518         hir::ExprKind::Match(..) | hir::ExprKind::While(..) | hir::ExprKind::Loop(..) |
1519         hir::ExprKind::Index(..) | hir::ExprKind::Field(..) |
1520         hir::ExprKind::Array(..) | hir::ExprKind::Tup(..) | hir::ExprKind::Binary(..) |
1521         hir::ExprKind::Cast(..) | hir::ExprKind::Unary(..) | hir::ExprKind::Ret(..) |
1522         hir::ExprKind::Break(..) | hir::ExprKind::Continue(..) | hir::ExprKind::Lit(_) |
1523         hir::ExprKind::Block(..) | hir::ExprKind::AddrOf(..) |
1524         hir::ExprKind::Struct(..) | hir::ExprKind::Repeat(..) |
1525         hir::ExprKind::Closure(..) | hir::ExprKind::Path(_) | hir::ExprKind::Yield(..) |
1526         hir::ExprKind::Box(..) | hir::ExprKind::Type(..) | hir::ExprKind::Err => {
1527             intravisit::walk_expr(this, expr);
1528         }
1529     }
1530 }
1531
1532 impl<'a, 'tcx> Liveness<'a, 'tcx> {
1533     fn check_place(&mut self, expr: &'tcx Expr) {
1534         match expr.node {
1535             hir::ExprKind::Path(hir::QPath::Resolved(_, ref path)) => {
1536                 if let Def::Local(nid) = path.def {
1537                     // Assignment to an immutable variable or argument: only legal
1538                     // if there is no later assignment. If this local is actually
1539                     // mutable, then check for a reassignment to flag the mutability
1540                     // as being used.
1541                     let ln = self.live_node(expr.hir_id, expr.span);
1542                     let var_hid = self.ir.tcx.hir().node_to_hir_id(nid);
1543                     let var = self.variable(var_hid, expr.span);
1544                     self.warn_about_dead_assign(expr.span, expr.hir_id, ln, var);
1545                 }
1546             }
1547             _ => {
1548                 // For other kinds of places, no checks are required,
1549                 // and any embedded expressions are actually rvalues
1550                 intravisit::walk_expr(self, expr);
1551             }
1552         }
1553     }
1554
1555     fn should_warn(&self, var: Variable) -> Option<String> {
1556         let name = self.ir.variable_name(var);
1557         if name.is_empty() || name.as_bytes()[0] == b'_' {
1558             None
1559         } else {
1560             Some(name)
1561         }
1562     }
1563
1564     fn warn_about_unused_args(&self, body: &hir::Body, entry_ln: LiveNode) {
1565         for arg in &body.arguments {
1566             arg.pat.each_binding(|_bm, hir_id, _, ident| {
1567                 let sp = ident.span;
1568                 let var = self.variable(hir_id, sp);
1569                 // Ignore unused self.
1570                 if ident.name != keywords::SelfLower.name() {
1571                     if !self.warn_about_unused(vec![sp], hir_id, entry_ln, var) {
1572                         if self.live_on_entry(entry_ln, var).is_none() {
1573                             self.report_dead_assign(hir_id, sp, var, true);
1574                         }
1575                     }
1576                 }
1577             })
1578         }
1579     }
1580
1581     fn warn_about_unused_or_dead_vars_in_pat(&mut self, pat: &hir::Pat) {
1582         self.pat_bindings(pat, |this, ln, var, sp, id| {
1583             if !this.warn_about_unused(vec![sp], id, ln, var) {
1584                 this.warn_about_dead_assign(sp, id, ln, var);
1585             }
1586         })
1587     }
1588
1589     fn warn_about_unused(&self,
1590                          spans: Vec<Span>,
1591                          hir_id: HirId,
1592                          ln: LiveNode,
1593                          var: Variable)
1594                          -> bool {
1595         if !self.used_on_entry(ln, var) {
1596             let r = self.should_warn(var);
1597             if let Some(name) = r {
1598                 // annoying: for parameters in funcs like `fn(x: i32)
1599                 // {ret}`, there is only one node, so asking about
1600                 // assigned_on_exit() is not meaningful.
1601                 let is_assigned = if ln == self.s.exit_ln {
1602                     false
1603                 } else {
1604                     self.assigned_on_exit(ln, var).is_some()
1605                 };
1606
1607                 if is_assigned {
1608                     self.ir.tcx.lint_hir_note(
1609                         lint::builtin::UNUSED_VARIABLES,
1610                         hir_id,
1611                         spans.clone(),
1612                         &format!("variable `{}` is assigned to, but never used", name),
1613                         &format!("consider using `_{}` instead", name),
1614                     );
1615                 } else if name != "self" {
1616                     let mut err = self.ir.tcx.struct_span_lint_hir(
1617                         lint::builtin::UNUSED_VARIABLES,
1618                         hir_id,
1619                         spans.clone(),
1620                         &format!("unused variable: `{}`", name),
1621                     );
1622
1623                     if self.ir.variable_is_shorthand(var) {
1624                         err.multipart_suggestion(
1625                             "try ignoring the field",
1626                             spans.iter().map(|span| (*span, format!("{}: _", name))).collect(),
1627                             Applicability::MachineApplicable
1628                         );
1629                     } else {
1630                         err.multipart_suggestion(
1631                             "consider prefixing with an underscore",
1632                             spans.iter().map(|span| (*span, format!("_{}", name))).collect(),
1633                             Applicability::MachineApplicable,
1634                         );
1635                     }
1636
1637                     err.emit()
1638                 }
1639             }
1640             true
1641         } else {
1642             false
1643         }
1644     }
1645
1646     fn warn_about_dead_assign(&self, sp: Span, hir_id: HirId, ln: LiveNode, var: Variable) {
1647         if self.live_on_exit(ln, var).is_none() {
1648             self.report_dead_assign(hir_id, sp, var, false);
1649         }
1650     }
1651
1652     fn report_dead_assign(&self, hir_id: HirId, sp: Span, var: Variable, is_argument: bool) {
1653         if let Some(name) = self.should_warn(var) {
1654             if is_argument {
1655                 self.ir.tcx.struct_span_lint_hir(lint::builtin::UNUSED_ASSIGNMENTS, hir_id, sp,
1656                 &format!("value passed to `{}` is never read", name))
1657                 .help("maybe it is overwritten before being read?")
1658                 .emit();
1659             } else {
1660                 self.ir.tcx.struct_span_lint_hir(lint::builtin::UNUSED_ASSIGNMENTS, hir_id, sp,
1661                 &format!("value assigned to `{}` is never read", name))
1662                 .help("maybe it is overwritten before being read?")
1663                 .emit();
1664             }
1665         }
1666     }
1667 }