]> git.lizzy.rs Git - rust.git/blob - src/librustc_mir/const_eval.rs
code review fixes
[rust.git] / src / librustc_mir / const_eval.rs
1 // Not in interpret to make sure we do not use private implementation details
2
3 use std::fmt;
4 use std::error::Error;
5 use std::borrow::{Borrow, Cow};
6 use std::hash::Hash;
7 use std::collections::hash_map::Entry;
8 use std::convert::TryInto;
9
10 use rustc::hir::def::DefKind;
11 use rustc::hir::def_id::DefId;
12 use rustc::mir::interpret::{ConstEvalErr, ErrorHandled, ScalarMaybeUndef};
13 use rustc::mir;
14 use rustc::ty::{self, TyCtxt};
15 use rustc::ty::layout::{self, LayoutOf, VariantIdx};
16 use rustc::ty::subst::Subst;
17 use rustc::traits::Reveal;
18 use rustc_data_structures::fx::FxHashMap;
19
20 use syntax::source_map::{Span, DUMMY_SP};
21
22 use crate::interpret::{self,
23     PlaceTy, MPlaceTy, OpTy, ImmTy, Immediate, Scalar,
24     RawConst, ConstValue,
25     InterpResult, InterpErrorInfo, InterpError, GlobalId, InterpCx, StackPopCleanup,
26     Allocation, AllocId, MemoryKind,
27     snapshot, RefTracking, intern_const_alloc_recursive, UnsupportedOpInfo,
28 };
29
30 /// Number of steps until the detector even starts doing anything.
31 /// Also, a warning is shown to the user when this number is reached.
32 const STEPS_UNTIL_DETECTOR_ENABLED: isize = 1_000_000;
33 /// The number of steps between loop detector snapshots.
34 /// Should be a power of two for performance reasons.
35 const DETECTOR_SNAPSHOT_PERIOD: isize = 256;
36
37 /// The `InterpCx` is only meant to be used to do field and index projections into constants for
38 /// `simd_shuffle` and const patterns in match arms.
39 ///
40 /// The function containing the `match` that is currently being analyzed may have generic bounds
41 /// that inform us about the generic bounds of the constant. E.g., using an associated constant
42 /// of a function's generic parameter will require knowledge about the bounds on the generic
43 /// parameter. These bounds are passed to `mk_eval_cx` via the `ParamEnv` argument.
44 pub(crate) fn mk_eval_cx<'mir, 'tcx>(
45     tcx: TyCtxt<'tcx>,
46     span: Span,
47     param_env: ty::ParamEnv<'tcx>,
48 ) -> CompileTimeEvalContext<'mir, 'tcx> {
49     debug!("mk_eval_cx: {:?}", param_env);
50     InterpCx::new(tcx.at(span), param_env, CompileTimeInterpreter::new(), Default::default())
51 }
52
53 pub(crate) fn eval_promoted<'mir, 'tcx>(
54     tcx: TyCtxt<'tcx>,
55     cid: GlobalId<'tcx>,
56     body: &'mir mir::Body<'tcx>,
57     param_env: ty::ParamEnv<'tcx>,
58 ) -> InterpResult<'tcx, MPlaceTy<'tcx>> {
59     let span = tcx.def_span(cid.instance.def_id());
60     let mut ecx = mk_eval_cx(tcx, span, param_env);
61     eval_body_using_ecx(&mut ecx, cid, body, param_env)
62 }
63
64 fn op_to_const<'tcx>(
65     ecx: &CompileTimeEvalContext<'_, 'tcx>,
66     op: OpTy<'tcx>,
67 ) -> &'tcx ty::Const<'tcx> {
68     // We do not have value optmizations for everything.
69     // Only scalars and slices, since they are very common.
70     // Note that further down we turn scalars of undefined bits back to `ByRef`. These can result
71     // from scalar unions that are initialized with one of their zero sized variants. We could
72     // instead allow `ConstValue::Scalar` to store `ScalarMaybeUndef`, but that would affect all
73     // the usual cases of extracting e.g. a `usize`, without there being a real use case for the
74     // `Undef` situation.
75     let try_as_immediate = match op.layout.abi {
76         layout::Abi::Scalar(..) => true,
77         layout::Abi::ScalarPair(..) => match op.layout.ty.sty {
78             ty::Ref(_, inner, _) => match inner.sty {
79                 ty::Slice(elem) => elem == ecx.tcx.types.u8,
80                 ty::Str => true,
81                 _ => false,
82             },
83             _ => false,
84         },
85         _ => false,
86     };
87     let immediate = if try_as_immediate {
88         Err(ecx.read_immediate(op).expect("normalization works on validated constants"))
89     } else {
90         // It is guaranteed that any non-slice scalar pair is actually ByRef here.
91         // When we come back from raw const eval, we are always by-ref. The only way our op here is
92         // by-val is if we are in const_field, i.e., if this is (a field of) something that we
93         // "tried to make immediate" before. We wouldn't do that for non-slice scalar pairs or
94         // structs containing such.
95         op.try_as_mplace()
96     };
97     let val = match immediate {
98         Ok(mplace) => {
99             let ptr = mplace.ptr.to_ptr().unwrap();
100             let alloc = ecx.tcx.alloc_map.lock().unwrap_memory(ptr.alloc_id);
101             ConstValue::ByRef { offset: ptr.offset, align: mplace.align, alloc }
102         },
103         // see comment on `let try_as_immediate` above
104         Err(ImmTy { imm: Immediate::Scalar(x), .. }) => match x {
105             ScalarMaybeUndef::Scalar(s) => ConstValue::Scalar(s),
106             ScalarMaybeUndef::Undef => {
107                 // When coming out of "normal CTFE", we'll always have an `Indirect` operand as
108                 // argument and we will not need this. The only way we can already have an
109                 // `Immediate` is when we are called from `const_field`, and that `Immediate`
110                 // comes from a constant so it can happen have `Undef`, because the indirect
111                 // memory that was read had undefined bytes.
112                 let mplace = op.assert_mem_place();
113                 let ptr = mplace.ptr.to_ptr().unwrap();
114                 let alloc = ecx.tcx.alloc_map.lock().unwrap_memory(ptr.alloc_id);
115                 ConstValue::ByRef { offset: ptr.offset, align: mplace.align, alloc }
116             },
117         },
118         Err(ImmTy { imm: Immediate::ScalarPair(a, b), .. }) => {
119             let (data, start) = match a.not_undef().unwrap() {
120                 Scalar::Ptr(ptr) => (
121                     ecx.tcx.alloc_map.lock().unwrap_memory(ptr.alloc_id),
122                     ptr.offset.bytes(),
123                 ),
124                 Scalar::Raw { .. } => (
125                     ecx.tcx.intern_const_alloc(Allocation::from_byte_aligned_bytes(
126                         b"" as &[u8],
127                     )),
128                     0,
129                 ),
130             };
131             let len = b.to_usize(&ecx.tcx.tcx).unwrap();
132             let start = start.try_into().unwrap();
133             let len: usize = len.try_into().unwrap();
134             ConstValue::Slice {
135                 data,
136                 start,
137                 end: start + len,
138             }
139         },
140     };
141     ecx.tcx.mk_const(ty::Const { val, ty: op.layout.ty })
142 }
143
144 // Returns a pointer to where the result lives
145 fn eval_body_using_ecx<'mir, 'tcx>(
146     ecx: &mut CompileTimeEvalContext<'mir, 'tcx>,
147     cid: GlobalId<'tcx>,
148     body: &'mir mir::Body<'tcx>,
149     param_env: ty::ParamEnv<'tcx>,
150 ) -> InterpResult<'tcx, MPlaceTy<'tcx>> {
151     debug!("eval_body_using_ecx: {:?}, {:?}", cid, param_env);
152     let tcx = ecx.tcx.tcx;
153     let layout = ecx.layout_of(body.return_ty().subst(tcx, cid.instance.substs))?;
154     assert!(!layout.is_unsized());
155     let ret = ecx.allocate(layout, MemoryKind::Stack);
156
157     let name = ty::tls::with(|tcx| tcx.def_path_str(cid.instance.def_id()));
158     let prom = cid.promoted.map_or(String::new(), |p| format!("::promoted[{:?}]", p));
159     trace!("eval_body_using_ecx: pushing stack frame for global: {}{}", name, prom);
160     assert!(body.arg_count == 0);
161     ecx.push_stack_frame(
162         cid.instance,
163         body.span,
164         body,
165         Some(ret.into()),
166         StackPopCleanup::None { cleanup: false },
167     )?;
168
169     // The main interpreter loop.
170     ecx.run()?;
171
172     // Intern the result
173     intern_const_alloc_recursive(
174         ecx,
175         cid.instance.def_id(),
176         ret,
177         param_env,
178     )?;
179
180     debug!("eval_body_using_ecx done: {:?}", *ret);
181     Ok(ret)
182 }
183
184 impl<'tcx> Into<InterpErrorInfo<'tcx>> for ConstEvalError {
185     fn into(self) -> InterpErrorInfo<'tcx> {
186         InterpError::Unsupported(UnsupportedOpInfo::MachineError(self.to_string())).into()
187     }
188 }
189
190 #[derive(Clone, Debug)]
191 enum ConstEvalError {
192     NeedsRfc(String),
193 }
194
195 impl fmt::Display for ConstEvalError {
196     fn fmt(&self, f: &mut fmt::Formatter<'_>) -> fmt::Result {
197         use self::ConstEvalError::*;
198         match *self {
199             NeedsRfc(ref msg) => {
200                 write!(
201                     f,
202                     "\"{}\" needs an rfc before being allowed inside constants",
203                     msg
204                 )
205             }
206         }
207     }
208 }
209
210 impl Error for ConstEvalError {
211     fn description(&self) -> &str {
212         use self::ConstEvalError::*;
213         match *self {
214             NeedsRfc(_) => "this feature needs an rfc before being allowed inside constants",
215         }
216     }
217
218     fn cause(&self) -> Option<&dyn Error> {
219         None
220     }
221 }
222
223 // Extra machine state for CTFE, and the Machine instance
224 pub struct CompileTimeInterpreter<'mir, 'tcx> {
225     /// When this value is negative, it indicates the number of interpreter
226     /// steps *until* the loop detector is enabled. When it is positive, it is
227     /// the number of steps after the detector has been enabled modulo the loop
228     /// detector period.
229     pub(super) steps_since_detector_enabled: isize,
230
231     /// Extra state to detect loops.
232     pub(super) loop_detector: snapshot::InfiniteLoopDetector<'mir, 'tcx>,
233 }
234
235 impl<'mir, 'tcx> CompileTimeInterpreter<'mir, 'tcx> {
236     fn new() -> Self {
237         CompileTimeInterpreter {
238             loop_detector: Default::default(),
239             steps_since_detector_enabled: -STEPS_UNTIL_DETECTOR_ENABLED,
240         }
241     }
242 }
243
244 impl<K: Hash + Eq, V> interpret::AllocMap<K, V> for FxHashMap<K, V> {
245     #[inline(always)]
246     fn contains_key<Q: ?Sized + Hash + Eq>(&mut self, k: &Q) -> bool
247         where K: Borrow<Q>
248     {
249         FxHashMap::contains_key(self, k)
250     }
251
252     #[inline(always)]
253     fn insert(&mut self, k: K, v: V) -> Option<V>
254     {
255         FxHashMap::insert(self, k, v)
256     }
257
258     #[inline(always)]
259     fn remove<Q: ?Sized + Hash + Eq>(&mut self, k: &Q) -> Option<V>
260         where K: Borrow<Q>
261     {
262         FxHashMap::remove(self, k)
263     }
264
265     #[inline(always)]
266     fn filter_map_collect<T>(&self, mut f: impl FnMut(&K, &V) -> Option<T>) -> Vec<T> {
267         self.iter()
268             .filter_map(move |(k, v)| f(k, &*v))
269             .collect()
270     }
271
272     #[inline(always)]
273     fn get_or<E>(
274         &self,
275         k: K,
276         vacant: impl FnOnce() -> Result<V, E>
277     ) -> Result<&V, E>
278     {
279         match self.get(&k) {
280             Some(v) => Ok(v),
281             None => {
282                 vacant()?;
283                 bug!("The CTFE machine shouldn't ever need to extend the alloc_map when reading")
284             }
285         }
286     }
287
288     #[inline(always)]
289     fn get_mut_or<E>(
290         &mut self,
291         k: K,
292         vacant: impl FnOnce() -> Result<V, E>
293     ) -> Result<&mut V, E>
294     {
295         match self.entry(k) {
296             Entry::Occupied(e) => Ok(e.into_mut()),
297             Entry::Vacant(e) => {
298                 let v = vacant()?;
299                 Ok(e.insert(v))
300             }
301         }
302     }
303 }
304
305 crate type CompileTimeEvalContext<'mir, 'tcx> =
306     InterpCx<'mir, 'tcx, CompileTimeInterpreter<'mir, 'tcx>>;
307
308 impl interpret::MayLeak for ! {
309     #[inline(always)]
310     fn may_leak(self) -> bool {
311         // `self` is uninhabited
312         self
313     }
314 }
315
316 impl<'mir, 'tcx> interpret::Machine<'mir, 'tcx> for CompileTimeInterpreter<'mir, 'tcx> {
317     type MemoryKinds = !;
318     type PointerTag = ();
319     type ExtraFnVal = !;
320
321     type FrameExtra = ();
322     type MemoryExtra = ();
323     type AllocExtra = ();
324
325     type MemoryMap = FxHashMap<AllocId, (MemoryKind<!>, Allocation)>;
326
327     const STATIC_KIND: Option<!> = None; // no copying of statics allowed
328
329     #[inline(always)]
330     fn enforce_validity(_ecx: &InterpCx<'mir, 'tcx, Self>) -> bool {
331         false // for now, we don't enforce validity
332     }
333
334     fn find_fn(
335         ecx: &mut InterpCx<'mir, 'tcx, Self>,
336         instance: ty::Instance<'tcx>,
337         args: &[OpTy<'tcx>],
338         dest: Option<PlaceTy<'tcx>>,
339         ret: Option<mir::BasicBlock>,
340     ) -> InterpResult<'tcx, Option<&'mir mir::Body<'tcx>>> {
341         debug!("eval_fn_call: {:?}", instance);
342         // Only check non-glue functions
343         if let ty::InstanceDef::Item(def_id) = instance.def {
344             // Execution might have wandered off into other crates, so we cannot to a stability-
345             // sensitive check here.  But we can at least rule out functions that are not const
346             // at all.
347             if !ecx.tcx.is_const_fn_raw(def_id) {
348                 // Some functions we support even if they are non-const -- but avoid testing
349                 // that for const fn!  We certainly do *not* want to actually call the fn
350                 // though, so be sure we return here.
351                 return if ecx.hook_fn(instance, args, dest)? {
352                     ecx.goto_block(ret)?; // fully evaluated and done
353                     Ok(None)
354                 } else {
355                     err!(MachineError(format!("calling non-const function `{}`", instance)))
356                 };
357             }
358         }
359         // This is a const fn. Call it.
360         Ok(Some(match ecx.load_mir(instance.def) {
361             Ok(body) => body,
362             Err(err) => {
363                 if let InterpError::Unsupported(UnsupportedOpInfo::NoMirFor(ref path)) = err.kind {
364                     return Err(
365                         ConstEvalError::NeedsRfc(format!("calling extern function `{}`", path))
366                             .into(),
367                     );
368                 }
369                 return Err(err);
370             }
371         }))
372     }
373
374     fn call_extra_fn(
375         _ecx: &mut InterpCx<'mir, 'tcx, Self>,
376         fn_val: !,
377         _args: &[OpTy<'tcx>],
378         _dest: Option<PlaceTy<'tcx>>,
379         _ret: Option<mir::BasicBlock>,
380     ) -> InterpResult<'tcx> {
381         match fn_val {}
382     }
383
384     fn call_intrinsic(
385         ecx: &mut InterpCx<'mir, 'tcx, Self>,
386         instance: ty::Instance<'tcx>,
387         args: &[OpTy<'tcx>],
388         dest: PlaceTy<'tcx>,
389     ) -> InterpResult<'tcx> {
390         if ecx.emulate_intrinsic(instance, args, dest)? {
391             return Ok(());
392         }
393         // An intrinsic that we do not support
394         let intrinsic_name = &ecx.tcx.item_name(instance.def_id()).as_str()[..];
395         Err(
396             ConstEvalError::NeedsRfc(format!("calling intrinsic `{}`", intrinsic_name)).into()
397         )
398     }
399
400     fn ptr_op(
401         _ecx: &InterpCx<'mir, 'tcx, Self>,
402         _bin_op: mir::BinOp,
403         _left: ImmTy<'tcx>,
404         _right: ImmTy<'tcx>,
405     ) -> InterpResult<'tcx, (Scalar, bool)> {
406         Err(
407             ConstEvalError::NeedsRfc("pointer arithmetic or comparison".to_string()).into(),
408         )
409     }
410
411     fn find_foreign_static(
412         _tcx: TyCtxt<'tcx>,
413         _def_id: DefId,
414     ) -> InterpResult<'tcx, Cow<'tcx, Allocation<Self::PointerTag>>> {
415         err!(ReadForeignStatic)
416     }
417
418     #[inline(always)]
419     fn tag_allocation<'b>(
420         _memory_extra: &(),
421         _id: AllocId,
422         alloc: Cow<'b, Allocation>,
423         _kind: Option<MemoryKind<!>>,
424     ) -> (Cow<'b, Allocation<Self::PointerTag>>, Self::PointerTag) {
425         // We do not use a tag so we can just cheaply forward the allocation
426         (alloc, ())
427     }
428
429     #[inline(always)]
430     fn tag_static_base_pointer(
431         _memory_extra: &(),
432         _id: AllocId,
433     ) -> Self::PointerTag {
434         ()
435     }
436
437     fn box_alloc(
438         _ecx: &mut InterpCx<'mir, 'tcx, Self>,
439         _dest: PlaceTy<'tcx>,
440     ) -> InterpResult<'tcx> {
441         Err(
442             ConstEvalError::NeedsRfc("heap allocations via `box` keyword".to_string()).into(),
443         )
444     }
445
446     fn before_terminator(ecx: &mut InterpCx<'mir, 'tcx, Self>) -> InterpResult<'tcx> {
447         {
448             let steps = &mut ecx.machine.steps_since_detector_enabled;
449
450             *steps += 1;
451             if *steps < 0 {
452                 return Ok(());
453             }
454
455             *steps %= DETECTOR_SNAPSHOT_PERIOD;
456             if *steps != 0 {
457                 return Ok(());
458             }
459         }
460
461         let span = ecx.frame().span;
462         ecx.machine.loop_detector.observe_and_analyze(
463             *ecx.tcx,
464             span,
465             &ecx.memory,
466             &ecx.stack[..],
467         )
468     }
469
470     #[inline(always)]
471     fn stack_push(_ecx: &mut InterpCx<'mir, 'tcx, Self>) -> InterpResult<'tcx> {
472         Ok(())
473     }
474
475     /// Called immediately before a stack frame gets popped.
476     #[inline(always)]
477     fn stack_pop(_ecx: &mut InterpCx<'mir, 'tcx, Self>, _extra: ()) -> InterpResult<'tcx> {
478         Ok(())
479     }
480 }
481
482 /// Extracts a field of a (variant of a) const.
483 // this function uses `unwrap` copiously, because an already validated constant must have valid
484 // fields and can thus never fail outside of compiler bugs
485 pub fn const_field<'tcx>(
486     tcx: TyCtxt<'tcx>,
487     param_env: ty::ParamEnv<'tcx>,
488     variant: Option<VariantIdx>,
489     field: mir::Field,
490     value: &'tcx ty::Const<'tcx>,
491 ) -> &'tcx ty::Const<'tcx> {
492     trace!("const_field: {:?}, {:?}", field, value);
493     let ecx = mk_eval_cx(tcx, DUMMY_SP, param_env);
494     // get the operand again
495     let op = ecx.eval_const_to_op(value, None).unwrap();
496     // downcast
497     let down = match variant {
498         None => op,
499         Some(variant) => ecx.operand_downcast(op, variant).unwrap(),
500     };
501     // then project
502     let field = ecx.operand_field(down, field.index() as u64).unwrap();
503     // and finally move back to the const world, always normalizing because
504     // this is not called for statics.
505     op_to_const(&ecx, field)
506 }
507
508 // this function uses `unwrap` copiously, because an already validated constant must have valid
509 // fields and can thus never fail outside of compiler bugs
510 pub fn const_variant_index<'tcx>(
511     tcx: TyCtxt<'tcx>,
512     param_env: ty::ParamEnv<'tcx>,
513     val: &'tcx ty::Const<'tcx>,
514 ) -> VariantIdx {
515     trace!("const_variant_index: {:?}", val);
516     let ecx = mk_eval_cx(tcx, DUMMY_SP, param_env);
517     let op = ecx.eval_const_to_op(val, None).unwrap();
518     ecx.read_discriminant(op).unwrap().1
519 }
520
521 pub fn error_to_const_error<'mir, 'tcx>(
522     ecx: &InterpCx<'mir, 'tcx, CompileTimeInterpreter<'mir, 'tcx>>,
523     mut error: InterpErrorInfo<'tcx>,
524 ) -> ConstEvalErr<'tcx> {
525     error.print_backtrace();
526     let stacktrace = ecx.generate_stacktrace(None);
527     ConstEvalErr { error: error.kind, stacktrace, span: ecx.tcx.span }
528 }
529
530 fn validate_and_turn_into_const<'tcx>(
531     tcx: TyCtxt<'tcx>,
532     constant: RawConst<'tcx>,
533     key: ty::ParamEnvAnd<'tcx, GlobalId<'tcx>>,
534 ) -> ::rustc::mir::interpret::ConstEvalResult<'tcx> {
535     let cid = key.value;
536     let ecx = mk_eval_cx(tcx, tcx.def_span(key.value.instance.def_id()), key.param_env);
537     let val = (|| {
538         let mplace = ecx.raw_const_to_mplace(constant)?;
539         let mut ref_tracking = RefTracking::new(mplace);
540         while let Some((mplace, path)) = ref_tracking.todo.pop() {
541             ecx.validate_operand(
542                 mplace.into(),
543                 path,
544                 Some(&mut ref_tracking),
545             )?;
546         }
547         // Now that we validated, turn this into a proper constant.
548         // Statics/promoteds are always `ByRef`, for the rest `op_to_const` decides
549         // whether they become immediates.
550         let def_id = cid.instance.def.def_id();
551         if tcx.is_static(def_id) || cid.promoted.is_some() {
552             let ptr = mplace.ptr.to_ptr()?;
553             Ok(tcx.mk_const(ty::Const {
554                 val: ConstValue::ByRef {
555                     offset: ptr.offset,
556                     align: mplace.align,
557                     alloc: ecx.tcx.alloc_map.lock().unwrap_memory(ptr.alloc_id),
558                 },
559                 ty: mplace.layout.ty,
560             }))
561         } else {
562             Ok(op_to_const(&ecx, mplace.into()))
563         }
564     })();
565
566     val.map_err(|error| {
567         let err = error_to_const_error(&ecx, error);
568         match err.struct_error(ecx.tcx, "it is undefined behavior to use this value") {
569             Ok(mut diag) => {
570                 diag.note("The rules on what exactly is undefined behavior aren't clear, \
571                     so this check might be overzealous. Please open an issue on the rust compiler \
572                     repository if you believe it should not be considered undefined behavior",
573                 );
574                 diag.emit();
575                 ErrorHandled::Reported
576             }
577             Err(err) => err,
578         }
579     })
580 }
581
582 pub fn const_eval_provider<'tcx>(
583     tcx: TyCtxt<'tcx>,
584     key: ty::ParamEnvAnd<'tcx, GlobalId<'tcx>>,
585 ) -> ::rustc::mir::interpret::ConstEvalResult<'tcx> {
586     // see comment in const_eval_provider for what we're doing here
587     if key.param_env.reveal == Reveal::All {
588         let mut key = key.clone();
589         key.param_env.reveal = Reveal::UserFacing;
590         match tcx.const_eval(key) {
591             // try again with reveal all as requested
592             Err(ErrorHandled::TooGeneric) => {
593                 // Promoteds should never be "too generic" when getting evaluated.
594                 // They either don't get evaluated, or we are in a monomorphic context
595                 assert!(key.value.promoted.is_none());
596             },
597             // dedupliate calls
598             other => return other,
599         }
600     }
601     tcx.const_eval_raw(key).and_then(|val| {
602         validate_and_turn_into_const(tcx, val, key)
603     })
604 }
605
606 pub fn const_eval_raw_provider<'tcx>(
607     tcx: TyCtxt<'tcx>,
608     key: ty::ParamEnvAnd<'tcx, GlobalId<'tcx>>,
609 ) -> ::rustc::mir::interpret::ConstEvalRawResult<'tcx> {
610     // Because the constant is computed twice (once per value of `Reveal`), we are at risk of
611     // reporting the same error twice here. To resolve this, we check whether we can evaluate the
612     // constant in the more restrictive `Reveal::UserFacing`, which most likely already was
613     // computed. For a large percentage of constants that will already have succeeded. Only
614     // associated constants of generic functions will fail due to not enough monomorphization
615     // information being available.
616
617     // In case we fail in the `UserFacing` variant, we just do the real computation.
618     if key.param_env.reveal == Reveal::All {
619         let mut key = key.clone();
620         key.param_env.reveal = Reveal::UserFacing;
621         match tcx.const_eval_raw(key) {
622             // try again with reveal all as requested
623             Err(ErrorHandled::TooGeneric) => {},
624             // dedupliate calls
625             other => return other,
626         }
627     }
628     if cfg!(debug_assertions) {
629         // Make sure we format the instance even if we do not print it.
630         // This serves as a regression test against an ICE on printing.
631         // The next two lines concatenated contain some discussion:
632         // https://rust-lang.zulipchat.com/#narrow/stream/146212-t-compiler.2Fconst-eval/
633         // subject/anon_const_instance_printing/near/135980032
634         let instance = key.value.instance.to_string();
635         trace!("const eval: {:?} ({})", key, instance);
636     }
637
638     let cid = key.value;
639     let def_id = cid.instance.def.def_id();
640
641     if def_id.is_local() && tcx.typeck_tables_of(def_id).tainted_by_errors {
642         return Err(ErrorHandled::Reported);
643     }
644
645     let span = tcx.def_span(cid.instance.def_id());
646     let mut ecx = InterpCx::new(
647         tcx.at(span),
648         key.param_env,
649         CompileTimeInterpreter::new(),
650         Default::default()
651     );
652
653     let res = ecx.load_mir(cid.instance.def);
654     res.map(|body| {
655         if let Some(index) = cid.promoted {
656             &body.promoted[index]
657         } else {
658             body
659         }
660     }).and_then(
661         |body| eval_body_using_ecx(&mut ecx, cid, body, key.param_env)
662     ).and_then(|place| {
663         Ok(RawConst {
664             alloc_id: place.ptr.assert_ptr().alloc_id,
665             ty: place.layout.ty
666         })
667     }).map_err(|error| {
668         let err = error_to_const_error(&ecx, error);
669         // errors in statics are always emitted as fatal errors
670         if tcx.is_static(def_id) {
671             // Ensure that if the above error was either `TooGeneric` or `Reported`
672             // an error must be reported.
673             let v = err.report_as_error(ecx.tcx, "could not evaluate static initializer");
674             tcx.sess.delay_span_bug(
675                 err.span,
676                 &format!("static eval failure did not emit an error: {:#?}", v)
677             );
678             v
679         } else if def_id.is_local() {
680             // constant defined in this crate, we can figure out a lint level!
681             match tcx.def_kind(def_id) {
682                 // constants never produce a hard error at the definition site. Anything else is
683                 // a backwards compatibility hazard (and will break old versions of winapi for sure)
684                 //
685                 // note that validation may still cause a hard error on this very same constant,
686                 // because any code that existed before validation could not have failed validation
687                 // thus preventing such a hard error from being a backwards compatibility hazard
688                 Some(DefKind::Const) | Some(DefKind::AssocConst) => {
689                     let hir_id = tcx.hir().as_local_hir_id(def_id).unwrap();
690                     err.report_as_lint(
691                         tcx.at(tcx.def_span(def_id)),
692                         "any use of this value will cause an error",
693                         hir_id,
694                         Some(err.span),
695                     )
696                 },
697                 // promoting runtime code is only allowed to error if it references broken constants
698                 // any other kind of error will be reported to the user as a deny-by-default lint
699                 _ => if let Some(p) = cid.promoted {
700                     use crate::interpret::InvalidProgramInfo::*;
701                     let span = tcx.promoted_mir(def_id)[p].span;
702                     if let InterpError::InvalidProgram(ReferencedConstant) = err.error {
703                         err.report_as_error(
704                             tcx.at(span),
705                             "evaluation of constant expression failed",
706                         )
707                     } else {
708                         err.report_as_lint(
709                             tcx.at(span),
710                             "reaching this expression at runtime will panic or abort",
711                             tcx.hir().as_local_hir_id(def_id).unwrap(),
712                             Some(err.span),
713                         )
714                     }
715                 // anything else (array lengths, enum initializers, constant patterns) are reported
716                 // as hard errors
717                 } else {
718                     err.report_as_error(
719                         ecx.tcx,
720                         "evaluation of constant value failed",
721                     )
722                 },
723             }
724         } else {
725             // use of broken constant from other crate
726             err.report_as_error(ecx.tcx, "could not evaluate constant")
727         }
728     })
729 }