]> git.lizzy.rs Git - rust.git/blob - src/tools/rust-analyzer/crates/rust-analyzer/src/global_state.rs
Rollup merge of #100730 - CleanCut:diagnostics-rustc_monomorphize, r=davidtwco
[rust.git] / src / tools / rust-analyzer / crates / rust-analyzer / src / global_state.rs
1 //! The context or environment in which the language server functions. In our
2 //! server implementation this is know as the `WorldState`.
3 //!
4 //! Each tick provides an immutable snapshot of the state as `WorldSnapshot`.
5
6 use std::{sync::Arc, time::Instant};
7
8 use crossbeam_channel::{unbounded, Receiver, Sender};
9 use flycheck::FlycheckHandle;
10 use ide::{Analysis, AnalysisHost, Cancellable, Change, FileId};
11 use ide_db::base_db::{CrateId, FileLoader, SourceDatabase};
12 use lsp_types::{SemanticTokens, Url};
13 use parking_lot::{Mutex, RwLock};
14 use proc_macro_api::ProcMacroServer;
15 use project_model::{CargoWorkspace, ProjectWorkspace, Target, WorkspaceBuildScripts};
16 use rustc_hash::FxHashMap;
17 use stdx::hash::NoHashHashMap;
18 use vfs::AnchoredPathBuf;
19
20 use crate::{
21     config::Config,
22     diagnostics::{CheckFixes, DiagnosticCollection},
23     from_proto,
24     line_index::{LineEndings, LineIndex},
25     lsp_ext,
26     main_loop::Task,
27     mem_docs::MemDocs,
28     op_queue::OpQueue,
29     reload::{self, SourceRootConfig},
30     task_pool::TaskPool,
31     to_proto::url_from_abs_path,
32     Result,
33 };
34
35 // Enforces drop order
36 pub(crate) struct Handle<H, C> {
37     pub(crate) handle: H,
38     pub(crate) receiver: C,
39 }
40
41 pub(crate) type ReqHandler = fn(&mut GlobalState, lsp_server::Response);
42 pub(crate) type ReqQueue = lsp_server::ReqQueue<(String, Instant), ReqHandler>;
43
44 /// `GlobalState` is the primary mutable state of the language server
45 ///
46 /// The most interesting components are `vfs`, which stores a consistent
47 /// snapshot of the file systems, and `analysis_host`, which stores our
48 /// incremental salsa database.
49 ///
50 /// Note that this struct has more than one impl in various modules!
51 pub(crate) struct GlobalState {
52     sender: Sender<lsp_server::Message>,
53     req_queue: ReqQueue,
54     pub(crate) task_pool: Handle<TaskPool<Task>, Receiver<Task>>,
55     pub(crate) loader: Handle<Box<dyn vfs::loader::Handle>, Receiver<vfs::loader::Message>>,
56     pub(crate) config: Arc<Config>,
57     pub(crate) analysis_host: AnalysisHost,
58     pub(crate) diagnostics: DiagnosticCollection,
59     pub(crate) mem_docs: MemDocs,
60     pub(crate) semantic_tokens_cache: Arc<Mutex<FxHashMap<Url, SemanticTokens>>>,
61     pub(crate) shutdown_requested: bool,
62     pub(crate) proc_macro_changed: bool,
63     pub(crate) last_reported_status: Option<lsp_ext::ServerStatusParams>,
64     pub(crate) source_root_config: SourceRootConfig,
65     pub(crate) proc_macro_clients: Vec<Result<ProcMacroServer, String>>,
66
67     pub(crate) flycheck: Vec<FlycheckHandle>,
68     pub(crate) flycheck_sender: Sender<flycheck::Message>,
69     pub(crate) flycheck_receiver: Receiver<flycheck::Message>,
70
71     pub(crate) vfs: Arc<RwLock<(vfs::Vfs, NoHashHashMap<FileId, LineEndings>)>>,
72     pub(crate) vfs_config_version: u32,
73     pub(crate) vfs_progress_config_version: u32,
74     pub(crate) vfs_progress_n_total: usize,
75     pub(crate) vfs_progress_n_done: usize,
76
77     /// `workspaces` field stores the data we actually use, while the `OpQueue`
78     /// stores the result of the last fetch.
79     ///
80     /// If the fetch (partially) fails, we do not update the current value.
81     ///
82     /// The handling of build data is subtle. We fetch workspace in two phases:
83     ///
84     /// *First*, we run `cargo metadata`, which gives us fast results for
85     /// initial analysis.
86     ///
87     /// *Second*, we run `cargo check` which runs build scripts and compiles
88     /// proc macros.
89     ///
90     /// We need both for the precise analysis, but we want rust-analyzer to be
91     /// at least partially available just after the first phase. That's because
92     /// first phase is much faster, and is much less likely to fail.
93     ///
94     /// This creates a complication -- by the time the second phase completes,
95     /// the results of the fist phase could be invalid. That is, while we run
96     /// `cargo check`, the user edits `Cargo.toml`, we notice this, and the new
97     /// `cargo metadata` completes before `cargo check`.
98     ///
99     /// An additional complication is that we want to avoid needless work. When
100     /// the user just adds comments or whitespace to Cargo.toml, we do not want
101     /// to invalidate any salsa caches.
102     pub(crate) workspaces: Arc<Vec<ProjectWorkspace>>,
103     pub(crate) fetch_workspaces_queue: OpQueue<Vec<anyhow::Result<ProjectWorkspace>>>,
104     pub(crate) fetch_build_data_queue:
105         OpQueue<(Arc<Vec<ProjectWorkspace>>, Vec<anyhow::Result<WorkspaceBuildScripts>>)>,
106
107     pub(crate) prime_caches_queue: OpQueue<()>,
108 }
109
110 /// An immutable snapshot of the world's state at a point in time.
111 pub(crate) struct GlobalStateSnapshot {
112     pub(crate) config: Arc<Config>,
113     pub(crate) analysis: Analysis,
114     pub(crate) check_fixes: CheckFixes,
115     mem_docs: MemDocs,
116     pub(crate) semantic_tokens_cache: Arc<Mutex<FxHashMap<Url, SemanticTokens>>>,
117     vfs: Arc<RwLock<(vfs::Vfs, NoHashHashMap<FileId, LineEndings>)>>,
118     pub(crate) workspaces: Arc<Vec<ProjectWorkspace>>,
119 }
120
121 impl std::panic::UnwindSafe for GlobalStateSnapshot {}
122
123 impl GlobalState {
124     pub(crate) fn new(sender: Sender<lsp_server::Message>, config: Config) -> GlobalState {
125         let loader = {
126             let (sender, receiver) = unbounded::<vfs::loader::Message>();
127             let handle: vfs_notify::NotifyHandle =
128                 vfs::loader::Handle::spawn(Box::new(move |msg| sender.send(msg).unwrap()));
129             let handle = Box::new(handle) as Box<dyn vfs::loader::Handle>;
130             Handle { handle, receiver }
131         };
132
133         let task_pool = {
134             let (sender, receiver) = unbounded();
135             let handle = TaskPool::new(sender);
136             Handle { handle, receiver }
137         };
138
139         let analysis_host = AnalysisHost::new(config.lru_capacity());
140         let (flycheck_sender, flycheck_receiver) = unbounded();
141         let mut this = GlobalState {
142             sender,
143             req_queue: ReqQueue::default(),
144             task_pool,
145             loader,
146             config: Arc::new(config.clone()),
147             analysis_host,
148             diagnostics: Default::default(),
149             mem_docs: MemDocs::default(),
150             semantic_tokens_cache: Arc::new(Default::default()),
151             shutdown_requested: false,
152             proc_macro_changed: false,
153             last_reported_status: None,
154             source_root_config: SourceRootConfig::default(),
155             proc_macro_clients: vec![],
156
157             flycheck: Vec::new(),
158             flycheck_sender,
159             flycheck_receiver,
160
161             vfs: Arc::new(RwLock::new((vfs::Vfs::default(), NoHashHashMap::default()))),
162             vfs_config_version: 0,
163             vfs_progress_config_version: 0,
164             vfs_progress_n_total: 0,
165             vfs_progress_n_done: 0,
166
167             workspaces: Arc::new(Vec::new()),
168             fetch_workspaces_queue: OpQueue::default(),
169             prime_caches_queue: OpQueue::default(),
170
171             fetch_build_data_queue: OpQueue::default(),
172         };
173         // Apply any required database inputs from the config.
174         this.update_configuration(config);
175         this
176     }
177
178     pub(crate) fn process_changes(&mut self) -> bool {
179         let _p = profile::span("GlobalState::process_changes");
180         // A file was added or deleted
181         let mut has_structure_changes = false;
182         let mut workspace_structure_change = None;
183
184         let (change, changed_files) = {
185             let mut change = Change::new();
186             let (vfs, line_endings_map) = &mut *self.vfs.write();
187             let changed_files = vfs.take_changes();
188             if changed_files.is_empty() {
189                 return false;
190             }
191
192             for file in &changed_files {
193                 if let Some(path) = vfs.file_path(file.file_id).as_path() {
194                     let path = path.to_path_buf();
195                     if reload::should_refresh_for_change(&path, file.change_kind) {
196                         workspace_structure_change = Some(path);
197                     }
198                     if file.is_created_or_deleted() {
199                         has_structure_changes = true;
200                     }
201                 }
202
203                 // Clear native diagnostics when their file gets deleted
204                 if !file.exists() {
205                     self.diagnostics.clear_native_for(file.file_id);
206                 }
207
208                 let text = if file.exists() {
209                     let bytes = vfs.file_contents(file.file_id).to_vec();
210                     String::from_utf8(bytes).ok().and_then(|text| {
211                         let (text, line_endings) = LineEndings::normalize(text);
212                         line_endings_map.insert(file.file_id, line_endings);
213                         Some(Arc::new(text))
214                     })
215                 } else {
216                     None
217                 };
218                 change.change_file(file.file_id, text);
219             }
220             if has_structure_changes {
221                 let roots = self.source_root_config.partition(vfs);
222                 change.set_roots(roots);
223             }
224             (change, changed_files)
225         };
226
227         self.analysis_host.apply_change(change);
228
229         {
230             let raw_database = self.analysis_host.raw_database();
231             // FIXME: ideally we should only trigger a workspace fetch for non-library changes
232             // but somethings going wrong with the source root business when we add a new local
233             // crate see https://github.com/rust-lang/rust-analyzer/issues/13029
234             if let Some(path) = workspace_structure_change {
235                 self.fetch_workspaces_queue
236                     .request_op(format!("workspace vfs file change: {}", path.display()));
237             }
238             self.proc_macro_changed =
239                 changed_files.iter().filter(|file| !file.is_created_or_deleted()).any(|file| {
240                     let crates = raw_database.relevant_crates(file.file_id);
241                     let crate_graph = raw_database.crate_graph();
242
243                     crates.iter().any(|&krate| crate_graph[krate].is_proc_macro)
244                 });
245         }
246
247         true
248     }
249
250     pub(crate) fn snapshot(&self) -> GlobalStateSnapshot {
251         GlobalStateSnapshot {
252             config: Arc::clone(&self.config),
253             workspaces: Arc::clone(&self.workspaces),
254             analysis: self.analysis_host.analysis(),
255             vfs: Arc::clone(&self.vfs),
256             check_fixes: Arc::clone(&self.diagnostics.check_fixes),
257             mem_docs: self.mem_docs.clone(),
258             semantic_tokens_cache: Arc::clone(&self.semantic_tokens_cache),
259         }
260     }
261
262     pub(crate) fn send_request<R: lsp_types::request::Request>(
263         &mut self,
264         params: R::Params,
265         handler: ReqHandler,
266     ) {
267         let request = self.req_queue.outgoing.register(R::METHOD.to_string(), params, handler);
268         self.send(request.into());
269     }
270
271     pub(crate) fn complete_request(&mut self, response: lsp_server::Response) {
272         let handler = self
273             .req_queue
274             .outgoing
275             .complete(response.id.clone())
276             .expect("received response for unknown request");
277         handler(self, response)
278     }
279
280     pub(crate) fn send_notification<N: lsp_types::notification::Notification>(
281         &mut self,
282         params: N::Params,
283     ) {
284         let not = lsp_server::Notification::new(N::METHOD.to_string(), params);
285         self.send(not.into());
286     }
287
288     pub(crate) fn register_request(
289         &mut self,
290         request: &lsp_server::Request,
291         request_received: Instant,
292     ) {
293         self.req_queue
294             .incoming
295             .register(request.id.clone(), (request.method.clone(), request_received));
296     }
297
298     pub(crate) fn respond(&mut self, response: lsp_server::Response) {
299         if let Some((method, start)) = self.req_queue.incoming.complete(response.id.clone()) {
300             if let Some(err) = &response.error {
301                 if err.message.starts_with("server panicked") {
302                     self.poke_rust_analyzer_developer(format!("{}, check the log", err.message))
303                 }
304             }
305
306             let duration = start.elapsed();
307             tracing::debug!("handled {} - ({}) in {:0.2?}", method, response.id, duration);
308             self.send(response.into());
309         }
310     }
311
312     pub(crate) fn cancel(&mut self, request_id: lsp_server::RequestId) {
313         if let Some(response) = self.req_queue.incoming.cancel(request_id) {
314             self.send(response.into());
315         }
316     }
317
318     fn send(&mut self, message: lsp_server::Message) {
319         self.sender.send(message).unwrap()
320     }
321 }
322
323 impl Drop for GlobalState {
324     fn drop(&mut self) {
325         self.analysis_host.request_cancellation();
326     }
327 }
328
329 impl GlobalStateSnapshot {
330     pub(crate) fn url_to_file_id(&self, url: &Url) -> Result<FileId> {
331         url_to_file_id(&self.vfs.read().0, url)
332     }
333
334     pub(crate) fn file_id_to_url(&self, id: FileId) -> Url {
335         file_id_to_url(&self.vfs.read().0, id)
336     }
337
338     pub(crate) fn file_line_index(&self, file_id: FileId) -> Cancellable<LineIndex> {
339         let endings = self.vfs.read().1[&file_id];
340         let index = self.analysis.file_line_index(file_id)?;
341         let res = LineIndex { index, endings, encoding: self.config.offset_encoding() };
342         Ok(res)
343     }
344
345     pub(crate) fn url_file_version(&self, url: &Url) -> Option<i32> {
346         let path = from_proto::vfs_path(url).ok()?;
347         Some(self.mem_docs.get(&path)?.version)
348     }
349
350     pub(crate) fn anchored_path(&self, path: &AnchoredPathBuf) -> Url {
351         let mut base = self.vfs.read().0.file_path(path.anchor);
352         base.pop();
353         let path = base.join(&path.path).unwrap();
354         let path = path.as_path().unwrap();
355         url_from_abs_path(path)
356     }
357
358     pub(crate) fn cargo_target_for_crate_root(
359         &self,
360         crate_id: CrateId,
361     ) -> Option<(&CargoWorkspace, Target)> {
362         let file_id = self.analysis.crate_root(crate_id).ok()?;
363         let path = self.vfs.read().0.file_path(file_id);
364         let path = path.as_path()?;
365         self.workspaces.iter().find_map(|ws| match ws {
366             ProjectWorkspace::Cargo { cargo, .. } => {
367                 cargo.target_by_root(path).map(|it| (cargo, it))
368             }
369             ProjectWorkspace::Json { .. } => None,
370             ProjectWorkspace::DetachedFiles { .. } => None,
371         })
372     }
373 }
374
375 pub(crate) fn file_id_to_url(vfs: &vfs::Vfs, id: FileId) -> Url {
376     let path = vfs.file_path(id);
377     let path = path.as_path().unwrap();
378     url_from_abs_path(path)
379 }
380
381 pub(crate) fn url_to_file_id(vfs: &vfs::Vfs, url: &Url) -> Result<FileId> {
382     let path = from_proto::vfs_path(url)?;
383     let res = vfs.file_id(&path).ok_or_else(|| format!("file not found: {}", path))?;
384     Ok(res)
385 }