]> git.lizzy.rs Git - rust.git/blob - clippy_lints/src/pass_by_ref_or_value.rs
Fix use_self ICE
[rust.git] / clippy_lints / src / pass_by_ref_or_value.rs
1 use std::cmp;
2 use std::iter;
3
4 use clippy_utils::diagnostics::span_lint_and_sugg;
5 use clippy_utils::is_self_ty;
6 use clippy_utils::source::snippet;
7 use clippy_utils::ty::is_copy;
8 use if_chain::if_chain;
9 use rustc_ast::attr;
10 use rustc_errors::Applicability;
11 use rustc_hir as hir;
12 use rustc_hir::intravisit::FnKind;
13 use rustc_hir::{BindingAnnotation, Body, FnDecl, HirId, Impl, ItemKind, MutTy, Mutability, Node, PatKind};
14 use rustc_lint::{LateContext, LateLintPass};
15 use rustc_middle::ty;
16 use rustc_session::{declare_tool_lint, impl_lint_pass};
17 use rustc_span::{sym, Span};
18 use rustc_target::abi::LayoutOf;
19 use rustc_target::spec::abi::Abi;
20 use rustc_target::spec::Target;
21
22 declare_clippy_lint! {
23     /// **What it does:** Checks for functions taking arguments by reference, where
24     /// the argument type is `Copy` and small enough to be more efficient to always
25     /// pass by value.
26     ///
27     /// **Why is this bad?** In many calling conventions instances of structs will
28     /// be passed through registers if they fit into two or less general purpose
29     /// registers.
30     ///
31     /// **Known problems:** This lint is target register size dependent, it is
32     /// limited to 32-bit to try and reduce portability problems between 32 and
33     /// 64-bit, but if you are compiling for 8 or 16-bit targets then the limit
34     /// will be different.
35     ///
36     /// The configuration option `trivial_copy_size_limit` can be set to override
37     /// this limit for a project.
38     ///
39     /// This lint attempts to allow passing arguments by reference if a reference
40     /// to that argument is returned. This is implemented by comparing the lifetime
41     /// of the argument and return value for equality. However, this can cause
42     /// false positives in cases involving multiple lifetimes that are bounded by
43     /// each other.
44     ///
45     /// Also, it does not take account of other similar cases where getting memory addresses
46     /// matters; namely, returning the pointer to the argument in question,
47     /// and passing the argument, as both references and pointers,
48     /// to a function that needs the memory address. For further details, refer to
49     /// [this issue](https://github.com/rust-lang/rust-clippy/issues/5953)
50     /// that explains a real case in which this false positive
51     /// led to an **undefined behaviour** introduced with unsafe code.
52     ///
53     /// **Example:**
54     ///
55     /// ```rust
56     /// // Bad
57     /// fn foo(v: &u32) {}
58     /// ```
59     ///
60     /// ```rust
61     /// // Better
62     /// fn foo(v: u32) {}
63     /// ```
64     pub TRIVIALLY_COPY_PASS_BY_REF,
65     pedantic,
66     "functions taking small copyable arguments by reference"
67 }
68
69 declare_clippy_lint! {
70     /// **What it does:** Checks for functions taking arguments by value, where
71     /// the argument type is `Copy` and large enough to be worth considering
72     /// passing by reference. Does not trigger if the function is being exported,
73     /// because that might induce API breakage, if the parameter is declared as mutable,
74     /// or if the argument is a `self`.
75     ///
76     /// **Why is this bad?** Arguments passed by value might result in an unnecessary
77     /// shallow copy, taking up more space in the stack and requiring a call to
78     /// `memcpy`, which can be expensive.
79     ///
80     /// **Example:**
81     ///
82     /// ```rust
83     /// #[derive(Clone, Copy)]
84     /// struct TooLarge([u8; 2048]);
85     ///
86     /// // Bad
87     /// fn foo(v: TooLarge) {}
88     /// ```
89     /// ```rust
90     /// #[derive(Clone, Copy)]
91     /// struct TooLarge([u8; 2048]);
92     ///
93     /// // Good
94     /// fn foo(v: &TooLarge) {}
95     /// ```
96     pub LARGE_TYPES_PASSED_BY_VALUE,
97     pedantic,
98     "functions taking large arguments by value"
99 }
100
101 #[derive(Copy, Clone)]
102 pub struct PassByRefOrValue {
103     ref_min_size: u64,
104     value_max_size: u64,
105     avoid_breaking_exported_api: bool,
106 }
107
108 impl<'tcx> PassByRefOrValue {
109     pub fn new(
110         ref_min_size: Option<u64>,
111         value_max_size: u64,
112         avoid_breaking_exported_api: bool,
113         target: &Target,
114     ) -> Self {
115         let ref_min_size = ref_min_size.unwrap_or_else(|| {
116             let bit_width = u64::from(target.pointer_width);
117             // Cap the calculated bit width at 32-bits to reduce
118             // portability problems between 32 and 64-bit targets
119             let bit_width = cmp::min(bit_width, 32);
120             #[allow(clippy::integer_division)]
121             let byte_width = bit_width / 8;
122             // Use a limit of 2 times the register byte width
123             byte_width * 2
124         });
125
126         Self {
127             ref_min_size,
128             value_max_size,
129             avoid_breaking_exported_api,
130         }
131     }
132
133     fn check_poly_fn(&mut self, cx: &LateContext<'tcx>, hir_id: HirId, decl: &FnDecl<'_>, span: Option<Span>) {
134         if self.avoid_breaking_exported_api && cx.access_levels.is_exported(hir_id) {
135             return;
136         }
137         let fn_def_id = cx.tcx.hir().local_def_id(hir_id);
138
139         let fn_sig = cx.tcx.fn_sig(fn_def_id);
140         let fn_sig = cx.tcx.erase_late_bound_regions(fn_sig);
141
142         let fn_body = cx.enclosing_body.map(|id| cx.tcx.hir().body(id));
143
144         for (index, (input, &ty)) in iter::zip(decl.inputs, fn_sig.inputs()).enumerate() {
145             // All spans generated from a proc-macro invocation are the same...
146             match span {
147                 Some(s) if s == input.span => return,
148                 _ => (),
149             }
150
151             match ty.kind() {
152                 ty::Ref(input_lt, ty, Mutability::Not) => {
153                     // Use lifetimes to determine if we're returning a reference to the
154                     // argument. In that case we can't switch to pass-by-value as the
155                     // argument will not live long enough.
156                     let output_lts = match *fn_sig.output().kind() {
157                         ty::Ref(output_lt, _, _) => vec![output_lt],
158                         ty::Adt(_, substs) => substs.regions().collect(),
159                         _ => vec![],
160                     };
161
162                     if_chain! {
163                         if !output_lts.contains(input_lt);
164                         if is_copy(cx, ty);
165                         if let Some(size) = cx.layout_of(ty).ok().map(|l| l.size.bytes());
166                         if size <= self.ref_min_size;
167                         if let hir::TyKind::Rptr(_, MutTy { ty: decl_ty, .. }) = input.kind;
168                         then {
169                             let value_type = if is_self_ty(decl_ty) {
170                                 "self".into()
171                             } else {
172                                 snippet(cx, decl_ty.span, "_").into()
173                             };
174                             span_lint_and_sugg(
175                                 cx,
176                                 TRIVIALLY_COPY_PASS_BY_REF,
177                                 input.span,
178                                 &format!("this argument ({} byte) is passed by reference, but would be more efficient if passed by value (limit: {} byte)", size, self.ref_min_size),
179                                 "consider passing by value instead",
180                                 value_type,
181                                 Applicability::Unspecified,
182                             );
183                         }
184                     }
185                 },
186
187                 ty::Adt(_, _) | ty::Array(_, _) | ty::Tuple(_) => {
188                     // if function has a body and parameter is annotated with mut, ignore
189                     if let Some(param) = fn_body.and_then(|body| body.params.get(index)) {
190                         match param.pat.kind {
191                             PatKind::Binding(BindingAnnotation::Unannotated, _, _, _) => {},
192                             _ => continue,
193                         }
194                     }
195
196                     if_chain! {
197                         if is_copy(cx, ty);
198                         if !is_self_ty(input);
199                         if let Some(size) = cx.layout_of(ty).ok().map(|l| l.size.bytes());
200                         if size > self.value_max_size;
201                         then {
202                             span_lint_and_sugg(
203                                 cx,
204                                 LARGE_TYPES_PASSED_BY_VALUE,
205                                 input.span,
206                                 &format!("this argument ({} byte) is passed by value, but might be more efficient if passed by reference (limit: {} byte)", size, self.value_max_size),
207                                 "consider passing by reference instead",
208                                 format!("&{}", snippet(cx, input.span, "_")),
209                                 Applicability::MaybeIncorrect,
210                             );
211                         }
212                     }
213                 },
214
215                 _ => {},
216             }
217         }
218     }
219 }
220
221 impl_lint_pass!(PassByRefOrValue => [TRIVIALLY_COPY_PASS_BY_REF, LARGE_TYPES_PASSED_BY_VALUE]);
222
223 impl<'tcx> LateLintPass<'tcx> for PassByRefOrValue {
224     fn check_trait_item(&mut self, cx: &LateContext<'tcx>, item: &'tcx hir::TraitItem<'_>) {
225         if item.span.from_expansion() {
226             return;
227         }
228
229         if let hir::TraitItemKind::Fn(method_sig, _) = &item.kind {
230             self.check_poly_fn(cx, item.hir_id(), &*method_sig.decl, None);
231         }
232     }
233
234     fn check_fn(
235         &mut self,
236         cx: &LateContext<'tcx>,
237         kind: FnKind<'tcx>,
238         decl: &'tcx FnDecl<'_>,
239         _body: &'tcx Body<'_>,
240         span: Span,
241         hir_id: HirId,
242     ) {
243         if span.from_expansion() {
244             return;
245         }
246
247         match kind {
248             FnKind::ItemFn(.., header, _) => {
249                 if header.abi != Abi::Rust {
250                     return;
251                 }
252                 let attrs = cx.tcx.hir().attrs(hir_id);
253                 for a in attrs {
254                     if let Some(meta_items) = a.meta_item_list() {
255                         if a.has_name(sym::proc_macro_derive)
256                             || (a.has_name(sym::inline) && attr::list_contains_name(&meta_items, sym::always))
257                         {
258                             return;
259                         }
260                     }
261                 }
262             },
263             FnKind::Method(..) => (),
264             FnKind::Closure => return,
265         }
266
267         // Exclude non-inherent impls
268         if let Some(Node::Item(item)) = cx.tcx.hir().find(cx.tcx.hir().get_parent_node(hir_id)) {
269             if matches!(
270                 item.kind,
271                 ItemKind::Impl(Impl { of_trait: Some(_), .. }) | ItemKind::Trait(..)
272             ) {
273                 return;
274             }
275         }
276
277         self.check_poly_fn(cx, hir_id, decl, Some(span));
278     }
279 }