Add BlockStore basics
This commit is contained in:
parent
f6330ce967
commit
1065554216
@ -2,6 +2,8 @@ extern crate rocksdb;
|
|||||||
|
|
||||||
mod disk_db;
|
mod disk_db;
|
||||||
mod traits;
|
mod traits;
|
||||||
|
mod stores;
|
||||||
|
|
||||||
|
|
||||||
pub use self::disk_db::DiskDB;
|
pub use self::disk_db::DiskDB;
|
||||||
pub use self::traits::{
|
pub use self::traits::{
|
||||||
|
103
lighthouse/db/stores/block_store.rs
Normal file
103
lighthouse/db/stores/block_store.rs
Normal file
@ -0,0 +1,103 @@
|
|||||||
|
use std::sync::Arc;
|
||||||
|
use super::{
|
||||||
|
ClientDB,
|
||||||
|
DBError,
|
||||||
|
};
|
||||||
|
use super::BLOCKS_DB_COLUMN as DB_COLUMN;
|
||||||
|
|
||||||
|
pub struct BlockStore<T>
|
||||||
|
where T: ClientDB
|
||||||
|
{
|
||||||
|
db: Arc<T>,
|
||||||
|
}
|
||||||
|
|
||||||
|
impl<T: ClientDB> BlockStore<T> {
|
||||||
|
pub fn new(db: Arc<T>) -> Self {
|
||||||
|
Self {
|
||||||
|
db,
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
pub fn put_block(&self, hash: &[u8], ssz: &[u8])
|
||||||
|
-> Result<(), DBError>
|
||||||
|
{
|
||||||
|
self.db.put(DB_COLUMN, hash, ssz)
|
||||||
|
}
|
||||||
|
|
||||||
|
pub fn get_block(&self, hash: &[u8])
|
||||||
|
-> Result<Option<Vec<u8>>, DBError>
|
||||||
|
{
|
||||||
|
self.db.get(DB_COLUMN, hash)
|
||||||
|
}
|
||||||
|
|
||||||
|
pub fn block_exists(&self, hash: &[u8])
|
||||||
|
-> Result<bool, DBError>
|
||||||
|
{
|
||||||
|
self.db.exists(DB_COLUMN, hash)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
#[cfg(test)]
|
||||||
|
mod tests {
|
||||||
|
use super::*;
|
||||||
|
use super::super::ClientDB;
|
||||||
|
use super::super::super::DiskDB;
|
||||||
|
use std::{ env, fs, thread };
|
||||||
|
use std::sync::Arc;
|
||||||
|
|
||||||
|
#[test]
|
||||||
|
fn test_block_store_on_disk_db() {
|
||||||
|
let pwd = env::current_dir().unwrap();
|
||||||
|
let path = pwd.join("block_store_testdb_please_remove");
|
||||||
|
let _ = fs::remove_dir_all(&path);
|
||||||
|
fs::create_dir_all(&path).unwrap();
|
||||||
|
|
||||||
|
let column_families = vec![
|
||||||
|
DB_COLUMN
|
||||||
|
];
|
||||||
|
|
||||||
|
let mut db = DiskDB::open(&path, None);
|
||||||
|
|
||||||
|
for cf in column_families {
|
||||||
|
db.create_col(&cf).unwrap();
|
||||||
|
}
|
||||||
|
|
||||||
|
let db = Arc::new(db);
|
||||||
|
|
||||||
|
let bs = Arc::new(BlockStore::new(db.clone()));
|
||||||
|
|
||||||
|
let thread_count = 10;
|
||||||
|
let write_count = 10;
|
||||||
|
|
||||||
|
// We're expecting the product of these numbers to fit in one byte.
|
||||||
|
assert!(thread_count * write_count <= 255);
|
||||||
|
|
||||||
|
let mut handles = vec![];
|
||||||
|
for t in 0..thread_count {
|
||||||
|
let wc = write_count;
|
||||||
|
let bs = bs.clone();
|
||||||
|
let handle = thread::spawn(move || {
|
||||||
|
for w in 0..wc {
|
||||||
|
let key = (t * w) as u8;
|
||||||
|
let val = 42;
|
||||||
|
bs.put_block(&vec![key], &vec![val]).unwrap();
|
||||||
|
}
|
||||||
|
});
|
||||||
|
handles.push(handle);
|
||||||
|
}
|
||||||
|
|
||||||
|
for handle in handles {
|
||||||
|
handle.join().unwrap();
|
||||||
|
}
|
||||||
|
|
||||||
|
for t in 0..thread_count {
|
||||||
|
for w in 0..write_count {
|
||||||
|
let key = (t * w) as u8;
|
||||||
|
assert!(bs.block_exists(&vec![key]).unwrap());
|
||||||
|
let val = bs.get_block(&vec![key]).unwrap().unwrap();
|
||||||
|
assert_eq!(vec![42], val);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
fs::remove_dir_all(&path).unwrap();
|
||||||
|
}
|
||||||
|
}
|
10
lighthouse/db/stores/mod.rs
Normal file
10
lighthouse/db/stores/mod.rs
Normal file
@ -0,0 +1,10 @@
|
|||||||
|
use super::{
|
||||||
|
ClientDB,
|
||||||
|
DBError,
|
||||||
|
};
|
||||||
|
|
||||||
|
mod block_store;
|
||||||
|
|
||||||
|
pub use self::block_store::BlockStore;
|
||||||
|
|
||||||
|
const BLOCKS_DB_COLUMN: &str = "blocks";
|
Loading…
Reference in New Issue
Block a user