]> git.lizzy.rs Git - rust.git/blob - library/core/tests/ptr.rs
Add a dedicated length-prefixing method to `Hasher`
[rust.git] / library / core / tests / ptr.rs
1 use core::cell::RefCell;
2 use core::num::NonZeroUsize;
3 use core::ptr;
4 use core::ptr::*;
5 use std::fmt::{Debug, Display};
6
7 #[test]
8 fn test_const_from_raw_parts() {
9     const SLICE: &[u8] = &[1, 2, 3, 4];
10     const FROM_RAW: &[u8] = unsafe { &*slice_from_raw_parts(SLICE.as_ptr(), SLICE.len()) };
11     assert_eq!(SLICE, FROM_RAW);
12
13     let slice = &[1, 2, 3, 4, 5];
14     let from_raw = unsafe { &*slice_from_raw_parts(slice.as_ptr(), 2) };
15     assert_eq!(&slice[..2], from_raw);
16 }
17
18 #[test]
19 fn test() {
20     unsafe {
21         struct Pair {
22             fst: isize,
23             snd: isize,
24         }
25         let mut p = Pair { fst: 10, snd: 20 };
26         let pptr: *mut Pair = &mut p;
27         let iptr: *mut isize = pptr as *mut isize;
28         assert_eq!(*iptr, 10);
29         *iptr = 30;
30         assert_eq!(*iptr, 30);
31         assert_eq!(p.fst, 30);
32
33         *pptr = Pair { fst: 50, snd: 60 };
34         assert_eq!(*iptr, 50);
35         assert_eq!(p.fst, 50);
36         assert_eq!(p.snd, 60);
37
38         let v0 = vec![32000u16, 32001u16, 32002u16];
39         let mut v1 = vec![0u16, 0u16, 0u16];
40
41         copy(v0.as_ptr().offset(1), v1.as_mut_ptr().offset(1), 1);
42         assert!((v1[0] == 0u16 && v1[1] == 32001u16 && v1[2] == 0u16));
43         copy(v0.as_ptr().offset(2), v1.as_mut_ptr(), 1);
44         assert!((v1[0] == 32002u16 && v1[1] == 32001u16 && v1[2] == 0u16));
45         copy(v0.as_ptr(), v1.as_mut_ptr().offset(2), 1);
46         assert!((v1[0] == 32002u16 && v1[1] == 32001u16 && v1[2] == 32000u16));
47     }
48 }
49
50 #[test]
51 fn test_is_null() {
52     let p: *const isize = null();
53     assert!(p.is_null());
54
55     let q = p.wrapping_offset(1);
56     assert!(!q.is_null());
57
58     let mp: *mut isize = null_mut();
59     assert!(mp.is_null());
60
61     let mq = mp.wrapping_offset(1);
62     assert!(!mq.is_null());
63
64     // Pointers to unsized types -- slices
65     let s: &mut [u8] = &mut [1, 2, 3];
66     let cs: *const [u8] = s;
67     assert!(!cs.is_null());
68
69     let ms: *mut [u8] = s;
70     assert!(!ms.is_null());
71
72     let cz: *const [u8] = &[];
73     assert!(!cz.is_null());
74
75     let mz: *mut [u8] = &mut [];
76     assert!(!mz.is_null());
77
78     let ncs: *const [u8] = null::<[u8; 3]>();
79     assert!(ncs.is_null());
80
81     let nms: *mut [u8] = null_mut::<[u8; 3]>();
82     assert!(nms.is_null());
83
84     // Pointers to unsized types -- trait objects
85     let ci: *const dyn ToString = &3;
86     assert!(!ci.is_null());
87
88     let mi: *mut dyn ToString = &mut 3;
89     assert!(!mi.is_null());
90
91     let nci: *const dyn ToString = null::<isize>();
92     assert!(nci.is_null());
93
94     let nmi: *mut dyn ToString = null_mut::<isize>();
95     assert!(nmi.is_null());
96 }
97
98 #[test]
99 fn test_as_ref() {
100     unsafe {
101         let p: *const isize = null();
102         assert_eq!(p.as_ref(), None);
103
104         let q: *const isize = &2;
105         assert_eq!(q.as_ref().unwrap(), &2);
106
107         let p: *mut isize = null_mut();
108         assert_eq!(p.as_ref(), None);
109
110         let q: *mut isize = &mut 2;
111         assert_eq!(q.as_ref().unwrap(), &2);
112
113         // Lifetime inference
114         let u = 2isize;
115         {
116             let p = &u as *const isize;
117             assert_eq!(p.as_ref().unwrap(), &2);
118         }
119
120         // Pointers to unsized types -- slices
121         let s: &mut [u8] = &mut [1, 2, 3];
122         let cs: *const [u8] = s;
123         assert_eq!(cs.as_ref(), Some(&*s));
124
125         let ms: *mut [u8] = s;
126         assert_eq!(ms.as_ref(), Some(&*s));
127
128         let cz: *const [u8] = &[];
129         assert_eq!(cz.as_ref(), Some(&[][..]));
130
131         let mz: *mut [u8] = &mut [];
132         assert_eq!(mz.as_ref(), Some(&[][..]));
133
134         let ncs: *const [u8] = null::<[u8; 3]>();
135         assert_eq!(ncs.as_ref(), None);
136
137         let nms: *mut [u8] = null_mut::<[u8; 3]>();
138         assert_eq!(nms.as_ref(), None);
139
140         // Pointers to unsized types -- trait objects
141         let ci: *const dyn ToString = &3;
142         assert!(ci.as_ref().is_some());
143
144         let mi: *mut dyn ToString = &mut 3;
145         assert!(mi.as_ref().is_some());
146
147         let nci: *const dyn ToString = null::<isize>();
148         assert!(nci.as_ref().is_none());
149
150         let nmi: *mut dyn ToString = null_mut::<isize>();
151         assert!(nmi.as_ref().is_none());
152     }
153 }
154
155 #[test]
156 fn test_as_mut() {
157     unsafe {
158         let p: *mut isize = null_mut();
159         assert!(p.as_mut() == None);
160
161         let q: *mut isize = &mut 2;
162         assert!(q.as_mut().unwrap() == &mut 2);
163
164         // Lifetime inference
165         let mut u = 2isize;
166         {
167             let p = &mut u as *mut isize;
168             assert!(p.as_mut().unwrap() == &mut 2);
169         }
170
171         // Pointers to unsized types -- slices
172         let s: &mut [u8] = &mut [1, 2, 3];
173         let ms: *mut [u8] = s;
174         assert_eq!(ms.as_mut(), Some(&mut [1, 2, 3][..]));
175
176         let mz: *mut [u8] = &mut [];
177         assert_eq!(mz.as_mut(), Some(&mut [][..]));
178
179         let nms: *mut [u8] = null_mut::<[u8; 3]>();
180         assert_eq!(nms.as_mut(), None);
181
182         // Pointers to unsized types -- trait objects
183         let mi: *mut dyn ToString = &mut 3;
184         assert!(mi.as_mut().is_some());
185
186         let nmi: *mut dyn ToString = null_mut::<isize>();
187         assert!(nmi.as_mut().is_none());
188     }
189 }
190
191 #[test]
192 fn test_ptr_addition() {
193     unsafe {
194         let xs = vec![5; 16];
195         let mut ptr = xs.as_ptr();
196         let end = ptr.offset(16);
197
198         while ptr < end {
199             assert_eq!(*ptr, 5);
200             ptr = ptr.offset(1);
201         }
202
203         let mut xs_mut = xs;
204         let mut m_ptr = xs_mut.as_mut_ptr();
205         let m_end = m_ptr.offset(16);
206
207         while m_ptr < m_end {
208             *m_ptr += 5;
209             m_ptr = m_ptr.offset(1);
210         }
211
212         assert!(xs_mut == vec![10; 16]);
213     }
214 }
215
216 #[test]
217 fn test_ptr_subtraction() {
218     unsafe {
219         let xs = vec![0, 1, 2, 3, 4, 5, 6, 7, 8, 9];
220         let mut idx = 9;
221         let ptr = xs.as_ptr();
222
223         while idx >= 0 {
224             assert_eq!(*(ptr.offset(idx as isize)), idx as isize);
225             idx = idx - 1;
226         }
227
228         let mut xs_mut = xs;
229         let m_start = xs_mut.as_mut_ptr();
230         let mut m_ptr = m_start.offset(9);
231
232         loop {
233             *m_ptr += *m_ptr;
234             if m_ptr == m_start {
235                 break;
236             }
237             m_ptr = m_ptr.offset(-1);
238         }
239
240         assert_eq!(xs_mut, [0, 2, 4, 6, 8, 10, 12, 14, 16, 18]);
241     }
242 }
243
244 #[test]
245 fn test_set_memory() {
246     let mut xs = [0u8; 20];
247     let ptr = xs.as_mut_ptr();
248     unsafe {
249         write_bytes(ptr, 5u8, xs.len());
250     }
251     assert!(xs == [5u8; 20]);
252 }
253
254 #[test]
255 fn test_set_memory_const() {
256     const XS: [u8; 20] = {
257         let mut xs = [0u8; 20];
258         let ptr = xs.as_mut_ptr();
259         unsafe {
260             ptr.write_bytes(5u8, xs.len());
261         }
262         xs
263     };
264
265     assert!(XS == [5u8; 20]);
266 }
267
268 #[test]
269 fn test_unsized_nonnull() {
270     let xs: &[i32] = &[1, 2, 3];
271     let ptr = unsafe { NonNull::new_unchecked(xs as *const [i32] as *mut [i32]) };
272     let ys = unsafe { ptr.as_ref() };
273     let zs: &[i32] = &[1, 2, 3];
274     assert!(ys == zs);
275 }
276
277 #[test]
278 fn test_const_nonnull_new() {
279     const {
280         assert!(NonNull::new(core::ptr::null_mut::<()>()).is_none());
281
282         let value = &mut 0u32;
283         let mut ptr = NonNull::new(value).unwrap();
284         unsafe { *ptr.as_mut() = 42 };
285
286         let reference = unsafe { &*ptr.as_ref() };
287         assert!(*reference == *value);
288         assert!(*reference == 42);
289     };
290 }
291
292 #[test]
293 #[cfg(unix)] // printf may not be available on other platforms
294 #[allow(deprecated)] // For SipHasher
295 pub fn test_variadic_fnptr() {
296     use core::ffi;
297     use core::hash::{Hash, SipHasher};
298     extern "C" {
299         // This needs to use the correct function signature even though it isn't called as some
300         // codegen backends make it UB to declare a function with multiple conflicting signatures
301         // (like LLVM) while others straight up return an error (like Cranelift).
302         fn printf(_: *const ffi::c_char, ...) -> ffi::c_int;
303     }
304     let p: unsafe extern "C" fn(*const ffi::c_char, ...) -> ffi::c_int = printf;
305     let q = p.clone();
306     assert_eq!(p, q);
307     assert!(!(p < q));
308     let mut s = SipHasher::new();
309     assert_eq!(p.hash(&mut s), q.hash(&mut s));
310 }
311
312 #[test]
313 fn write_unaligned_drop() {
314     thread_local! {
315         static DROPS: RefCell<Vec<u32>> = RefCell::new(Vec::new());
316     }
317
318     struct Dropper(u32);
319
320     impl Drop for Dropper {
321         fn drop(&mut self) {
322             DROPS.with(|d| d.borrow_mut().push(self.0));
323         }
324     }
325
326     {
327         let c = Dropper(0);
328         let mut t = Dropper(1);
329         unsafe {
330             write_unaligned(&mut t, c);
331         }
332     }
333     DROPS.with(|d| assert_eq!(*d.borrow(), [0]));
334 }
335
336 #[test]
337 fn align_offset_zst() {
338     // For pointers of stride = 0, the pointer is already aligned or it cannot be aligned at
339     // all, because no amount of elements will align the pointer.
340     let mut p = 1;
341     while p < 1024 {
342         assert_eq!((p as *const ()).align_offset(p), 0);
343         if p != 1 {
344             assert_eq!(((p + 1) as *const ()).align_offset(p), !0);
345         }
346         p = (p + 1).next_power_of_two();
347     }
348 }
349
350 #[test]
351 fn align_offset_stride1() {
352     // For pointers of stride = 1, the pointer can always be aligned. The offset is equal to
353     // number of bytes.
354     let mut align = 1;
355     while align < 1024 {
356         for ptr in 1..2 * align {
357             let expected = ptr % align;
358             let offset = if expected == 0 { 0 } else { align - expected };
359             assert_eq!(
360                 (ptr as *const u8).align_offset(align),
361                 offset,
362                 "ptr = {}, align = {}, size = 1",
363                 ptr,
364                 align
365             );
366         }
367         align = (align + 1).next_power_of_two();
368     }
369 }
370
371 #[test]
372 fn align_offset_weird_strides() {
373     #[repr(packed)]
374     struct A3(u16, u8);
375     struct A4(u32);
376     #[repr(packed)]
377     struct A5(u32, u8);
378     #[repr(packed)]
379     struct A6(u32, u16);
380     #[repr(packed)]
381     struct A7(u32, u16, u8);
382     #[repr(packed)]
383     struct A8(u32, u32);
384     #[repr(packed)]
385     struct A9(u32, u32, u8);
386     #[repr(packed)]
387     struct A10(u32, u32, u16);
388
389     unsafe fn test_weird_stride<T>(ptr: *const T, align: usize) -> bool {
390         let numptr = ptr as usize;
391         let mut expected = usize::MAX;
392         // Naive but definitely correct way to find the *first* aligned element of stride::<T>.
393         for el in 0..align {
394             if (numptr + el * ::std::mem::size_of::<T>()) % align == 0 {
395                 expected = el;
396                 break;
397             }
398         }
399         let got = ptr.align_offset(align);
400         if got != expected {
401             eprintln!(
402                 "aligning {:p} (with stride of {}) to {}, expected {}, got {}",
403                 ptr,
404                 ::std::mem::size_of::<T>(),
405                 align,
406                 expected,
407                 got
408             );
409             return true;
410         }
411         return false;
412     }
413
414     // For pointers of stride != 1, we verify the algorithm against the naivest possible
415     // implementation
416     let mut align = 1;
417     let mut x = false;
418     // Miri is too slow
419     let limit = if cfg!(miri) { 32 } else { 1024 };
420     while align < limit {
421         for ptr in 1usize..4 * align {
422             unsafe {
423                 x |= test_weird_stride::<A3>(ptr as *const A3, align);
424                 x |= test_weird_stride::<A4>(ptr as *const A4, align);
425                 x |= test_weird_stride::<A5>(ptr as *const A5, align);
426                 x |= test_weird_stride::<A6>(ptr as *const A6, align);
427                 x |= test_weird_stride::<A7>(ptr as *const A7, align);
428                 x |= test_weird_stride::<A8>(ptr as *const A8, align);
429                 x |= test_weird_stride::<A9>(ptr as *const A9, align);
430                 x |= test_weird_stride::<A10>(ptr as *const A10, align);
431             }
432         }
433         align = (align + 1).next_power_of_two();
434     }
435     assert!(!x);
436 }
437
438 #[test]
439 fn offset_from() {
440     let mut a = [0; 5];
441     let ptr1: *mut i32 = &mut a[1];
442     let ptr2: *mut i32 = &mut a[3];
443     unsafe {
444         assert_eq!(ptr2.offset_from(ptr1), 2);
445         assert_eq!(ptr1.offset_from(ptr2), -2);
446         assert_eq!(ptr1.offset(2), ptr2);
447         assert_eq!(ptr2.offset(-2), ptr1);
448     }
449 }
450
451 #[test]
452 fn ptr_metadata() {
453     struct Unit;
454     struct Pair<A, B: ?Sized>(A, B);
455     extern "C" {
456         type Extern;
457     }
458     let () = metadata(&());
459     let () = metadata(&Unit);
460     let () = metadata(&4_u32);
461     let () = metadata(&String::new());
462     let () = metadata(&Some(4_u32));
463     let () = metadata(&ptr_metadata);
464     let () = metadata(&|| {});
465     let () = metadata(&[4, 7]);
466     let () = metadata(&(4, String::new()));
467     let () = metadata(&Pair(4, String::new()));
468     let () = metadata(0 as *const Extern);
469     let () = metadata(0 as *const <&u32 as std::ops::Deref>::Target);
470
471     assert_eq!(metadata("foo"), 3_usize);
472     assert_eq!(metadata(&[4, 7][..]), 2_usize);
473
474     let dst_tuple: &(bool, [u8]) = &(true, [0x66, 0x6F, 0x6F]);
475     let dst_struct: &Pair<bool, [u8]> = &Pair(true, [0x66, 0x6F, 0x6F]);
476     assert_eq!(metadata(dst_tuple), 3_usize);
477     assert_eq!(metadata(dst_struct), 3_usize);
478     unsafe {
479         let dst_tuple: &(bool, str) = std::mem::transmute(dst_tuple);
480         let dst_struct: &Pair<bool, str> = std::mem::transmute(dst_struct);
481         assert_eq!(&dst_tuple.1, "foo");
482         assert_eq!(&dst_struct.1, "foo");
483         assert_eq!(metadata(dst_tuple), 3_usize);
484         assert_eq!(metadata(dst_struct), 3_usize);
485     }
486
487     let vtable_1: DynMetadata<dyn Debug> = metadata(&4_u16 as &dyn Debug);
488     let vtable_2: DynMetadata<dyn Display> = metadata(&4_u16 as &dyn Display);
489     let vtable_3: DynMetadata<dyn Display> = metadata(&4_u32 as &dyn Display);
490     let vtable_4: DynMetadata<dyn Display> = metadata(&(true, 7_u32) as &(bool, dyn Display));
491     let vtable_5: DynMetadata<dyn Display> =
492         metadata(&Pair(true, 7_u32) as &Pair<bool, dyn Display>);
493     unsafe {
494         let address_1: *const () = std::mem::transmute(vtable_1);
495         let address_2: *const () = std::mem::transmute(vtable_2);
496         let address_3: *const () = std::mem::transmute(vtable_3);
497         let address_4: *const () = std::mem::transmute(vtable_4);
498         let address_5: *const () = std::mem::transmute(vtable_5);
499         // Different trait => different vtable pointer
500         assert_ne!(address_1, address_2);
501         // Different erased type => different vtable pointer
502         assert_ne!(address_2, address_3);
503         // Same erased type and same trait => same vtable pointer
504         assert_eq!(address_3, address_4);
505         assert_eq!(address_3, address_5);
506     }
507 }
508
509 #[test]
510 fn ptr_metadata_bounds() {
511     fn metadata_eq_method_address<T: ?Sized>() -> usize {
512         // The `Metadata` associated type has an `Ord` bound, so this is valid:
513         <<T as Pointee>::Metadata as PartialEq>::eq as usize
514     }
515     // "Synthetic" trait impls generated by the compiler like those of `Pointee`
516     // are not checked for bounds of associated type.
517     // So with a buggy libcore we could have both:
518     // * `<dyn Display as Pointee>::Metadata == DynMetadata`
519     // * `DynMetadata: !PartialEq`
520     // … and cause an ICE here:
521     metadata_eq_method_address::<dyn Display>();
522
523     // For this reason, let’s check here that bounds are satisfied:
524
525     let _ = static_assert_expected_bounds_for_metadata::<()>;
526     let _ = static_assert_expected_bounds_for_metadata::<usize>;
527     let _ = static_assert_expected_bounds_for_metadata::<DynMetadata<dyn Display>>;
528     fn _static_assert_associated_type<T: ?Sized>() {
529         let _ = static_assert_expected_bounds_for_metadata::<<T as Pointee>::Metadata>;
530     }
531
532     fn static_assert_expected_bounds_for_metadata<Meta>()
533     where
534         // Keep this in sync with the associated type in `library/core/src/ptr/metadata.rs`
535         Meta: Copy + Send + Sync + Ord + std::hash::Hash + Unpin,
536     {
537     }
538 }
539
540 #[test]
541 fn dyn_metadata() {
542     #[derive(Debug)]
543     #[repr(align(32))]
544     struct Something([u8; 47]);
545
546     let value = Something([0; 47]);
547     let trait_object: &dyn Debug = &value;
548     let meta = metadata(trait_object);
549
550     assert_eq!(meta.size_of(), 64);
551     assert_eq!(meta.size_of(), std::mem::size_of::<Something>());
552     assert_eq!(meta.align_of(), 32);
553     assert_eq!(meta.align_of(), std::mem::align_of::<Something>());
554     assert_eq!(meta.layout(), std::alloc::Layout::new::<Something>());
555
556     assert!(format!("{meta:?}").starts_with("DynMetadata(0x"));
557 }
558
559 #[test]
560 fn from_raw_parts() {
561     let mut value = 5_u32;
562     let address = &mut value as *mut _ as *mut ();
563     let trait_object: &dyn Display = &mut value;
564     let vtable = metadata(trait_object);
565     let trait_object = NonNull::from(trait_object);
566
567     assert_eq!(ptr::from_raw_parts(address, vtable), trait_object.as_ptr());
568     assert_eq!(ptr::from_raw_parts_mut(address, vtable), trait_object.as_ptr());
569     assert_eq!(NonNull::from_raw_parts(NonNull::new(address).unwrap(), vtable), trait_object);
570
571     let mut array = [5_u32, 5, 5, 5, 5];
572     let address = &mut array as *mut _ as *mut ();
573     let array_ptr = NonNull::from(&mut array);
574     let slice_ptr = NonNull::from(&mut array[..]);
575
576     assert_eq!(ptr::from_raw_parts(address, ()), array_ptr.as_ptr());
577     assert_eq!(ptr::from_raw_parts_mut(address, ()), array_ptr.as_ptr());
578     assert_eq!(NonNull::from_raw_parts(NonNull::new(address).unwrap(), ()), array_ptr);
579
580     assert_eq!(ptr::from_raw_parts(address, 5), slice_ptr.as_ptr());
581     assert_eq!(ptr::from_raw_parts_mut(address, 5), slice_ptr.as_ptr());
582     assert_eq!(NonNull::from_raw_parts(NonNull::new(address).unwrap(), 5), slice_ptr);
583 }
584
585 #[test]
586 fn thin_box() {
587     let foo = ThinBox::<dyn Display>::new(4);
588     assert_eq!(foo.to_string(), "4");
589     drop(foo);
590     let bar = ThinBox::<dyn Display>::new(7);
591     assert_eq!(bar.to_string(), "7");
592
593     // A slightly more interesting library that could be built on top of metadata APIs.
594     //
595     // * It could be generalized to any `T: ?Sized` (not just trait object)
596     //   if `{size,align}_of_for_meta<T: ?Sized>(T::Metadata)` are added.
597     // * Constructing a `ThinBox` without consuming and deallocating a `Box`
598     //   requires either the unstable `Unsize` marker trait,
599     //   or the unstable `unsized_locals` language feature,
600     //   or taking `&dyn T` and restricting to `T: Copy`.
601
602     use std::alloc::*;
603     use std::marker::PhantomData;
604
605     struct ThinBox<T>
606     where
607         T: ?Sized + Pointee<Metadata = DynMetadata<T>>,
608     {
609         ptr: NonNull<DynMetadata<T>>,
610         phantom: PhantomData<T>,
611     }
612
613     impl<T> ThinBox<T>
614     where
615         T: ?Sized + Pointee<Metadata = DynMetadata<T>>,
616     {
617         pub fn new<Value: std::marker::Unsize<T>>(value: Value) -> Self {
618             let unsized_: &T = &value;
619             let meta = metadata(unsized_);
620             let meta_layout = Layout::for_value(&meta);
621             let value_layout = Layout::for_value(&value);
622             let (layout, offset) = meta_layout.extend(value_layout).unwrap();
623             // `DynMetadata` is pointer-sized:
624             assert!(layout.size() > 0);
625             // If `ThinBox<T>` is generalized to any `T: ?Sized`,
626             // handle ZSTs with a dangling pointer without going through `alloc()`,
627             // like `Box<T>` does.
628             unsafe {
629                 let ptr = NonNull::new(alloc(layout))
630                     .unwrap_or_else(|| handle_alloc_error(layout))
631                     .cast::<DynMetadata<T>>();
632                 ptr.as_ptr().write(meta);
633                 ptr.cast::<u8>().as_ptr().add(offset).cast::<Value>().write(value);
634                 Self { ptr, phantom: PhantomData }
635             }
636         }
637
638         fn meta(&self) -> DynMetadata<T> {
639             unsafe { *self.ptr.as_ref() }
640         }
641
642         fn layout(&self) -> (Layout, usize) {
643             let meta = self.meta();
644             Layout::for_value(&meta).extend(meta.layout()).unwrap()
645         }
646
647         fn value_ptr(&self) -> *const T {
648             let (_, offset) = self.layout();
649             let data_ptr = unsafe { self.ptr.cast::<u8>().as_ptr().add(offset) };
650             ptr::from_raw_parts(data_ptr.cast(), self.meta())
651         }
652
653         fn value_mut_ptr(&mut self) -> *mut T {
654             let (_, offset) = self.layout();
655             // FIXME: can this line be shared with the same in `value_ptr()`
656             // without upsetting Stacked Borrows?
657             let data_ptr = unsafe { self.ptr.cast::<u8>().as_ptr().add(offset) };
658             from_raw_parts_mut(data_ptr.cast(), self.meta())
659         }
660     }
661
662     impl<T> std::ops::Deref for ThinBox<T>
663     where
664         T: ?Sized + Pointee<Metadata = DynMetadata<T>>,
665     {
666         type Target = T;
667
668         fn deref(&self) -> &T {
669             unsafe { &*self.value_ptr() }
670         }
671     }
672
673     impl<T> std::ops::DerefMut for ThinBox<T>
674     where
675         T: ?Sized + Pointee<Metadata = DynMetadata<T>>,
676     {
677         fn deref_mut(&mut self) -> &mut T {
678             unsafe { &mut *self.value_mut_ptr() }
679         }
680     }
681
682     impl<T> std::ops::Drop for ThinBox<T>
683     where
684         T: ?Sized + Pointee<Metadata = DynMetadata<T>>,
685     {
686         fn drop(&mut self) {
687             let (layout, _) = self.layout();
688             unsafe {
689                 drop_in_place::<T>(&mut **self);
690                 dealloc(self.ptr.cast().as_ptr(), layout);
691             }
692         }
693     }
694 }
695
696 #[test]
697 fn nonnull_tagged_pointer_with_provenance() {
698     let raw_pointer = Box::into_raw(Box::new(10));
699
700     let mut p = TaggedPointer::new(raw_pointer).unwrap();
701     assert_eq!(p.tag(), 0);
702
703     p.set_tag(1);
704     assert_eq!(p.tag(), 1);
705     assert_eq!(unsafe { *p.pointer().as_ptr() }, 10);
706
707     p.set_tag(3);
708     assert_eq!(p.tag(), 3);
709     assert_eq!(unsafe { *p.pointer().as_ptr() }, 10);
710
711     unsafe { Box::from_raw(p.pointer().as_ptr()) };
712
713     /// A non-null pointer type which carries several bits of metadata and maintains provenance.
714     #[repr(transparent)]
715     pub struct TaggedPointer<T>(NonNull<T>);
716
717     impl<T> Clone for TaggedPointer<T> {
718         fn clone(&self) -> Self {
719             Self(self.0)
720         }
721     }
722
723     impl<T> Copy for TaggedPointer<T> {}
724
725     impl<T> TaggedPointer<T> {
726         /// The ABI-required minimum alignment of the `P` type.
727         pub const ALIGNMENT: usize = core::mem::align_of::<T>();
728         /// A mask for data-carrying bits of the address.
729         pub const DATA_MASK: usize = !Self::ADDRESS_MASK;
730         /// Number of available bits of storage in the address.
731         pub const NUM_BITS: u32 = Self::ALIGNMENT.trailing_zeros();
732         /// A mask for the non-data-carrying bits of the address.
733         pub const ADDRESS_MASK: usize = usize::MAX << Self::NUM_BITS;
734
735         /// Create a new tagged pointer from a possibly null pointer.
736         pub fn new(pointer: *mut T) -> Option<TaggedPointer<T>> {
737             Some(TaggedPointer(NonNull::new(pointer)?))
738         }
739
740         /// Consume this tagged pointer and produce a raw mutable pointer to the
741         /// memory location.
742         pub fn pointer(self) -> NonNull<T> {
743             // SAFETY: The `addr` guaranteed to have bits set in the Self::ADDRESS_MASK, so the result will be non-null.
744             self.0.map_addr(|addr| unsafe {
745                 NonZeroUsize::new_unchecked(addr.get() & Self::ADDRESS_MASK)
746             })
747         }
748
749         /// Consume this tagged pointer and produce the data it carries.
750         pub fn tag(&self) -> usize {
751             self.0.addr().get() & Self::DATA_MASK
752         }
753
754         /// Update the data this tagged pointer carries to a new value.
755         pub fn set_tag(&mut self, data: usize) {
756             assert_eq!(
757                 data & Self::ADDRESS_MASK,
758                 0,
759                 "cannot set more data beyond the lowest NUM_BITS"
760             );
761             let data = data & Self::DATA_MASK;
762
763             // SAFETY: This value will always be non-zero because the upper bits (from
764             // ADDRESS_MASK) will always be non-zero. This a property of the type and its
765             // construction.
766             self.0 = self.0.map_addr(|addr| unsafe {
767                 NonZeroUsize::new_unchecked((addr.get() & Self::ADDRESS_MASK) | data)
768             })
769         }
770     }
771 }