]> git.lizzy.rs Git - rust.git/commitdiff
remove imports that are also in edition 2021's prelude
authorKaDiWa <kalle.wachsmuth@gmail.com>
Mon, 8 Aug 2022 23:16:32 +0000 (01:16 +0200)
committerKaDiWa <kalle.wachsmuth@gmail.com>
Mon, 8 Aug 2022 23:16:32 +0000 (01:16 +0200)
18 files changed:
crates/base-db/src/input.rs
crates/hir-ty/src/consteval.rs
crates/ide-db/src/search.rs
crates/ide/src/goto_definition.rs
crates/ide/src/status.rs
crates/proc-macro-api/src/msg/flat.rs
crates/proc-macro-srv/src/abis/abi_1_58/proc_macro/mod.rs
crates/proc-macro-srv/src/abis/abi_1_58/ra_server.rs
crates/proc-macro-srv/src/abis/abi_1_63/proc_macro/mod.rs
crates/proc-macro-srv/src/abis/abi_1_63/ra_server.rs
crates/proc-macro-srv/src/abis/abi_1_64/proc_macro/mod.rs
crates/proc-macro-srv/src/abis/abi_1_64/ra_server.rs
crates/proc-macro-srv/src/abis/abi_sysroot/ra_server.rs
crates/proc-macro-srv/src/dylib.rs
crates/rust-analyzer/src/diagnostics/to_proto.rs
crates/rust-analyzer/src/to_proto.rs
crates/syntax/src/fuzz.rs
lib/la-arena/src/lib.rs

index 9b5a10acfbeaf90711e17c66c21b24105557a665..9580ce8007c76a2224f5f2ba90a2acfbc6680d11 100644 (file)
@@ -6,7 +6,7 @@
 //! actual IO. See `vfs` and `project_model` in the `rust-analyzer` crate for how
 //! actual IO is done and lowered to input.
 
-use std::{fmt, iter::FromIterator, ops, panic::RefUnwindSafe, str::FromStr, sync::Arc};
+use std::{fmt, ops, panic::RefUnwindSafe, str::FromStr, sync::Arc};
 
 use cfg::CfgOptions;
 use rustc_hash::{FxHashMap, FxHashSet};
index 0495a4e64cacadffb3ade02fa9f044348d945463..6ecb6e6fd173e30e9273d82c792485b3bb7d506f 100644 (file)
@@ -2,7 +2,6 @@
 
 use std::{
     collections::HashMap,
-    convert::TryInto,
     fmt::{Display, Write},
 };
 
index bd038cdaa068261e3738849a930ff0ec59c74e91..9eaabeec7a4e7e2669e6a0d5540a3896baede122 100644 (file)
@@ -4,7 +4,7 @@
 //! get a super-set of matches. Then, we we confirm each match using precise
 //! name resolution.
 
-use std::{convert::TryInto, mem, sync::Arc};
+use std::{mem, sync::Arc};
 
 use base_db::{FileId, FileRange, SourceDatabase, SourceDatabaseExt};
 use hir::{DefWithBody, HasAttrs, HasSource, InFile, ModuleSource, Semantics, Visibility};
index b2123b9a87938545f4e9609e4e586289b8634aa9..d6cd5783f05ef0cf2a90f449c65f07a5c2dba6f0 100644 (file)
@@ -1,4 +1,4 @@
-use std::{convert::TryInto, mem::discriminant};
+use std::mem::discriminant;
 
 use crate::{doc_links::token_as_doc_comment, FilePosition, NavigationTarget, RangeInfo, TryToNav};
 use hir::{AsAssocItem, AssocItem, Semantics};
index 32e39f82a0e9f2b6ef870bca1371db19cf319d02..f4d0387440d475e23e4e7ef466cc608f3f9565de 100644 (file)
@@ -1,4 +1,4 @@
-use std::{fmt, iter::FromIterator, sync::Arc};
+use std::{fmt, sync::Arc};
 
 use hir::{ExpandResult, MacroFile};
 use ide_db::base_db::{
index 8437444e183a0ec5c971217a8346476c3d9e5bce..268a03bb5359b607343d9cecd8daaa60291f8db1 100644 (file)
 //! as we don't have bincode in Cargo.toml yet, lets stick with serde_json for
 //! the time being.
 
-use std::{
-    collections::{HashMap, VecDeque},
-    convert::TryInto,
-};
+use std::collections::{HashMap, VecDeque};
 
 use serde::{Deserialize, Serialize};
 use tt::TokenId;
index 4a07f22779e66548813b2ca9f9c3c931d7d02ff5..a405497f3c9b7858da927d1b5d1be5eedff0c261 100644 (file)
@@ -157,7 +157,7 @@ fn from(tree: TokenTree) -> TokenStream {
 }
 
 /// Collects a number of token trees into a single stream.
-impl iter::FromIterator<TokenTree> for TokenStream {
+impl FromIterator<TokenTree> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
         trees.into_iter().map(TokenStream::from).collect()
     }
@@ -165,7 +165,7 @@ fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
 
 /// A "flattening" operation on token streams, collects token trees
 /// from multiple token streams into a single stream.
-impl iter::FromIterator<TokenStream> for TokenStream {
+impl FromIterator<TokenStream> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenStream>>(streams: I) -> Self {
         let mut builder = bridge::client::TokenStreamBuilder::new();
         streams.into_iter().for_each(|stream| builder.push(stream.0));
index ebdfca00d735d14da1057fbc0fa4605f52aad5f2..b1e982f4779f7fde6567f3b9e5d64532e4f2ac87 100644 (file)
@@ -12,7 +12,6 @@
 
 use std::collections::HashMap;
 use std::hash::Hash;
-use std::iter::FromIterator;
 use std::ops::Bound;
 use std::{ascii, vec::IntoIter};
 
index c50a16bf4d1d813723dc43d08336743c5755a9ea..7ab1f421daf897a9408c45b4334f37b1c89038f1 100644 (file)
@@ -207,7 +207,7 @@ fn append_to(mut self, stream: &mut TokenStream) {
 }
 
 /// Collects a number of token trees into a single stream.
-impl iter::FromIterator<TokenTree> for TokenStream {
+impl FromIterator<TokenTree> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
         trees.into_iter().map(TokenStream::from).collect()
     }
@@ -215,7 +215,7 @@ fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
 
 /// A "flattening" operation on token streams, collects token trees
 /// from multiple token streams into a single stream.
-impl iter::FromIterator<TokenStream> for TokenStream {
+impl FromIterator<TokenStream> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenStream>>(streams: I) -> Self {
         let iter = streams.into_iter();
         let mut builder = ConcatStreamsHelper::new(iter.size_hint().0);
index 05a565fbf343ec03f689d92f2f1c07d71f75a399..ed49cc7596608edf9f4475270ca13cb98f04ad4b 100644 (file)
@@ -12,7 +12,6 @@
 
 use std::collections::HashMap;
 use std::hash::Hash;
-use std::iter::FromIterator;
 use std::ops::Bound;
 use std::{ascii, vec::IntoIter};
 
index be62c73ef32b9d40bfb0b2017795964917fe5de6..86a59b64559037119c2f853ec53531afa7efa5eb 100644 (file)
@@ -207,7 +207,7 @@ fn append_to(mut self, stream: &mut TokenStream) {
 }
 
 /// Collects a number of token trees into a single stream.
-impl iter::FromIterator<TokenTree> for TokenStream {
+impl FromIterator<TokenTree> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
         trees.into_iter().map(TokenStream::from).collect()
     }
@@ -215,7 +215,7 @@ fn from_iter<I: IntoIterator<Item = TokenTree>>(trees: I) -> Self {
 
 /// A "flattening" operation on token streams, collects token trees
 /// from multiple token streams into a single stream.
-impl iter::FromIterator<TokenStream> for TokenStream {
+impl FromIterator<TokenStream> for TokenStream {
     fn from_iter<I: IntoIterator<Item = TokenStream>>(streams: I) -> Self {
         let iter = streams.into_iter();
         let mut builder = ConcatStreamsHelper::new(iter.size_hint().0);
index 7e8e67856e9fdfe23c68b39a63a28559a3b44633..d8aa1ec429a7dc7ae37f3ae30431f5b1b2534407 100644 (file)
@@ -12,7 +12,6 @@
 
 use std::collections::HashMap;
 use std::hash::Hash;
-use std::iter::FromIterator;
 use std::ops::Bound;
 use std::{ascii, vec::IntoIter};
 
index 46882845a80798ee5060b95d1ac1d25d713fbcd2..52eb7ce17d6aeb482d41846a7781b0601ff8131a 100644 (file)
@@ -20,7 +20,7 @@
 mod symbol;
 pub use symbol::*;
 
-use std::{iter::FromIterator, ops::Bound};
+use std::ops::Bound;
 
 type Group = tt::Subtree;
 type TokenTree = tt::TokenTree;
index 2b6c070fece3f746c0ca48e6c2940e8c801d5ea1..7aba74e5396dee1778f272321144017e0140bf35 100644 (file)
@@ -1,7 +1,6 @@
 //! Handles dynamic library loading for proc macro
 
 use std::{
-    convert::TryInto,
     fmt,
     fs::File,
     io,
index cff4bd7f66acdaca64197f5c0b3f9971065a657b..74689fd8757f82942c13842fd1305a48c41606e4 100644 (file)
@@ -512,7 +512,7 @@ fn clippy_code_description(code: Option<&str>) -> Option<lsp_types::CodeDescript
 #[cfg(test)]
 #[cfg(not(windows))]
 mod tests {
-    use std::{convert::TryInto, path::Path};
+    use std::path::Path;
 
     use crate::{config::Config, global_state::GlobalState};
 
index 7f4fa57fa1e095f2138d6924815c9a7643a3c82b..e7115b0732e20c6922627cd3675172cae612c686 100644 (file)
@@ -1386,7 +1386,7 @@ fn main() {
     #[test]
     #[cfg(target_os = "windows")]
     fn test_lowercase_drive_letter() {
-        use std::{convert::TryInto, path::Path};
+        use std::path::Path;
 
         let url = url_from_abs_path(Path::new("C:\\Test").try_into().unwrap());
         assert_eq!(url.to_string(), "file:///c:/Test");
index 256999fe09cf88356fbb286741ea20250e758344..7c7a60d62994eeca97712716beef99b45146a6e2 100644 (file)
@@ -2,10 +2,7 @@
 //!
 //! We don't normally run fuzzying, so this is hopelessly bitrotten :(
 
-use std::{
-    convert::TryInto,
-    str::{self, FromStr},
-};
+use std::str::{self, FromStr};
 
 use text_edit::Indel;
 
index a3fe59e946ee9be8e60789c8b016d8231c9c48b4..50e8d06b66049795bedc69b320bad4be62d7a811 100644 (file)
@@ -6,7 +6,6 @@
 use std::{
     fmt,
     hash::{Hash, Hasher},
-    iter::FromIterator,
     marker::PhantomData,
     ops::{Index, IndexMut, Range, RangeInclusive},
 };