mirror of https://github.com/restic/restic.git
Merge pull request #249 from restic/reduce-fuse-memory-usage
Reduce memory usage for fuse mount
This commit is contained in:
commit
05e2afba0b
|
@ -162,9 +162,18 @@ func (cmd CmdCat) Execute(args []string) error {
|
||||||
return err
|
return err
|
||||||
|
|
||||||
case "blob":
|
case "blob":
|
||||||
data, err := repo.LoadBlob(pack.Data, id)
|
_, blobType, _, length, err := repo.Index().Lookup(id)
|
||||||
if err == nil {
|
if err != nil {
|
||||||
_, err = os.Stdout.Write(data)
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if blobType != pack.Data {
|
||||||
|
return errors.New("wrong type for blob")
|
||||||
|
}
|
||||||
|
|
||||||
|
buf := make([]byte, length)
|
||||||
|
data, err := repo.LoadBlob(pack.Data, id, buf)
|
||||||
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
|
@ -6,7 +6,7 @@ import (
|
||||||
"fmt"
|
"fmt"
|
||||||
"os"
|
"os"
|
||||||
|
|
||||||
"github.com/restic/restic/cmd/restic/fuse"
|
"github.com/restic/restic/fuse"
|
||||||
|
|
||||||
systemFuse "bazil.org/fuse"
|
systemFuse "bazil.org/fuse"
|
||||||
"bazil.org/fuse/fs"
|
"bazil.org/fuse/fs"
|
||||||
|
|
|
@ -1,97 +0,0 @@
|
||||||
package fuse
|
|
||||||
|
|
||||||
import (
|
|
||||||
"github.com/restic/restic"
|
|
||||||
"github.com/restic/restic/pack"
|
|
||||||
"github.com/restic/restic/repository"
|
|
||||||
|
|
||||||
"bazil.org/fuse"
|
|
||||||
"bazil.org/fuse/fs"
|
|
||||||
"golang.org/x/net/context"
|
|
||||||
)
|
|
||||||
|
|
||||||
// Statically ensure that *file implements the given interface
|
|
||||||
var _ = fs.HandleReader(&file{})
|
|
||||||
|
|
||||||
type file struct {
|
|
||||||
repo *repository.Repository
|
|
||||||
node *restic.Node
|
|
||||||
|
|
||||||
sizes []uint32
|
|
||||||
blobs [][]byte
|
|
||||||
}
|
|
||||||
|
|
||||||
func newFile(repo *repository.Repository, node *restic.Node) (*file, error) {
|
|
||||||
sizes := make([]uint32, len(node.Content))
|
|
||||||
for i, blobID := range node.Content {
|
|
||||||
length, err := repo.Index().LookupSize(blobID)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
sizes[i] = uint32(length)
|
|
||||||
}
|
|
||||||
|
|
||||||
return &file{
|
|
||||||
repo: repo,
|
|
||||||
node: node,
|
|
||||||
sizes: sizes,
|
|
||||||
blobs: make([][]byte, len(node.Content)),
|
|
||||||
}, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *file) Attr(ctx context.Context, a *fuse.Attr) error {
|
|
||||||
a.Inode = f.node.Inode
|
|
||||||
a.Mode = f.node.Mode
|
|
||||||
a.Size = f.node.Size
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *file) getBlobAt(i int) (blob []byte, err error) {
|
|
||||||
if f.blobs[i] != nil {
|
|
||||||
blob = f.blobs[i]
|
|
||||||
} else {
|
|
||||||
blob, err = f.repo.LoadBlob(pack.Data, f.node.Content[i])
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
f.blobs[i] = blob
|
|
||||||
}
|
|
||||||
|
|
||||||
return blob, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *file) Read(ctx context.Context, req *fuse.ReadRequest, resp *fuse.ReadResponse) error {
|
|
||||||
off := req.Offset
|
|
||||||
|
|
||||||
// Skip blobs before the offset
|
|
||||||
startContent := 0
|
|
||||||
for off > int64(f.sizes[startContent]) {
|
|
||||||
off -= int64(f.sizes[startContent])
|
|
||||||
startContent++
|
|
||||||
}
|
|
||||||
|
|
||||||
content := make([]byte, req.Size)
|
|
||||||
allContent := content
|
|
||||||
for i := startContent; i < len(f.sizes); i++ {
|
|
||||||
blob, err := f.getBlobAt(i)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
blob = blob[off:]
|
|
||||||
off = 0
|
|
||||||
|
|
||||||
var copied int
|
|
||||||
if len(blob) > len(content) {
|
|
||||||
copied = copy(content[0:], blob[:len(content)])
|
|
||||||
} else {
|
|
||||||
copied = copy(content[0:], blob)
|
|
||||||
}
|
|
||||||
content = content[copied:]
|
|
||||||
if len(content) == 0 {
|
|
||||||
break
|
|
||||||
}
|
|
||||||
}
|
|
||||||
resp.Data = allContent
|
|
||||||
return nil
|
|
||||||
}
|
|
|
@ -0,0 +1,135 @@
|
||||||
|
package fuse
|
||||||
|
|
||||||
|
import (
|
||||||
|
"sync"
|
||||||
|
|
||||||
|
"github.com/restic/restic"
|
||||||
|
"github.com/restic/restic/backend"
|
||||||
|
"github.com/restic/restic/pack"
|
||||||
|
|
||||||
|
"bazil.org/fuse"
|
||||||
|
"bazil.org/fuse/fs"
|
||||||
|
"golang.org/x/net/context"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Statically ensure that *file implements the given interface
|
||||||
|
var _ = fs.HandleReader(&file{})
|
||||||
|
var _ = fs.HandleReleaser(&file{})
|
||||||
|
|
||||||
|
// BlobLoader is an abstracted repository with a reduced set of methods used
|
||||||
|
// for fuse operations.
|
||||||
|
type BlobLoader interface {
|
||||||
|
LookupBlobSize(backend.ID) (uint, error)
|
||||||
|
LoadBlob(pack.BlobType, backend.ID, []byte) ([]byte, error)
|
||||||
|
}
|
||||||
|
|
||||||
|
type file struct {
|
||||||
|
repo BlobLoader
|
||||||
|
node *restic.Node
|
||||||
|
|
||||||
|
sizes []uint
|
||||||
|
blobs [][]byte
|
||||||
|
}
|
||||||
|
|
||||||
|
const defaultBlobSize = 128 * 1024
|
||||||
|
|
||||||
|
var blobPool = sync.Pool{
|
||||||
|
New: func() interface{} {
|
||||||
|
return make([]byte, defaultBlobSize)
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
func newFile(repo BlobLoader, node *restic.Node) (*file, error) {
|
||||||
|
sizes := make([]uint, len(node.Content))
|
||||||
|
for i, id := range node.Content {
|
||||||
|
size, err := repo.LookupBlobSize(id)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
sizes[i] = size
|
||||||
|
}
|
||||||
|
|
||||||
|
return &file{
|
||||||
|
repo: repo,
|
||||||
|
node: node,
|
||||||
|
sizes: sizes,
|
||||||
|
blobs: make([][]byte, len(node.Content)),
|
||||||
|
}, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (f *file) Attr(ctx context.Context, a *fuse.Attr) error {
|
||||||
|
a.Inode = f.node.Inode
|
||||||
|
a.Mode = f.node.Mode
|
||||||
|
a.Size = f.node.Size
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (f *file) getBlobAt(i int) (blob []byte, err error) {
|
||||||
|
if f.blobs[i] != nil {
|
||||||
|
return f.blobs[i], nil
|
||||||
|
}
|
||||||
|
|
||||||
|
buf := blobPool.Get().([]byte)
|
||||||
|
buf = buf[:cap(buf)]
|
||||||
|
|
||||||
|
if uint(len(buf)) < f.sizes[i] {
|
||||||
|
if len(buf) > defaultBlobSize {
|
||||||
|
blobPool.Put(buf)
|
||||||
|
}
|
||||||
|
buf = make([]byte, f.sizes[i])
|
||||||
|
}
|
||||||
|
|
||||||
|
blob, err = f.repo.LoadBlob(pack.Data, f.node.Content[i], buf)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
f.blobs[i] = blob
|
||||||
|
|
||||||
|
return blob, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (f *file) Read(ctx context.Context, req *fuse.ReadRequest, resp *fuse.ReadResponse) error {
|
||||||
|
offset := req.Offset
|
||||||
|
|
||||||
|
// Skip blobs before the offset
|
||||||
|
startContent := 0
|
||||||
|
for offset > int64(f.sizes[startContent]) {
|
||||||
|
offset -= int64(f.sizes[startContent])
|
||||||
|
startContent++
|
||||||
|
}
|
||||||
|
|
||||||
|
dst := resp.Data[0:req.Size]
|
||||||
|
readBytes := 0
|
||||||
|
remainingBytes := req.Size
|
||||||
|
for i := startContent; remainingBytes > 0 && i < len(f.sizes); i++ {
|
||||||
|
blob, err := f.getBlobAt(i)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if offset > 0 {
|
||||||
|
blob = blob[offset:len(blob)]
|
||||||
|
offset = 0
|
||||||
|
}
|
||||||
|
|
||||||
|
copied := copy(dst, blob)
|
||||||
|
remainingBytes -= copied
|
||||||
|
readBytes += copied
|
||||||
|
|
||||||
|
dst = dst[copied:]
|
||||||
|
}
|
||||||
|
resp.Data = resp.Data[:readBytes]
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (f *file) Release(ctx context.Context, req *fuse.ReleaseRequest) error {
|
||||||
|
for i := range f.blobs {
|
||||||
|
if f.blobs[i] != nil {
|
||||||
|
blobPool.Put(f.blobs[i])
|
||||||
|
f.blobs[i] = nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
|
@ -0,0 +1,157 @@
|
||||||
|
package fuse
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"math/rand"
|
||||||
|
"testing"
|
||||||
|
"time"
|
||||||
|
|
||||||
|
"bazil.org/fuse"
|
||||||
|
|
||||||
|
"github.com/restic/restic"
|
||||||
|
"github.com/restic/restic/backend"
|
||||||
|
"github.com/restic/restic/pack"
|
||||||
|
. "github.com/restic/restic/test"
|
||||||
|
)
|
||||||
|
|
||||||
|
type MockRepo struct {
|
||||||
|
blobs map[backend.ID][]byte
|
||||||
|
}
|
||||||
|
|
||||||
|
func NewMockRepo(content map[backend.ID][]byte) *MockRepo {
|
||||||
|
return &MockRepo{blobs: content}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (m *MockRepo) LookupBlobSize(id backend.ID) (uint, error) {
|
||||||
|
buf, ok := m.blobs[id]
|
||||||
|
if !ok {
|
||||||
|
return 0, errors.New("blob not found")
|
||||||
|
}
|
||||||
|
|
||||||
|
return uint(len(buf)), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (m *MockRepo) LoadBlob(t pack.BlobType, id backend.ID, buf []byte) ([]byte, error) {
|
||||||
|
size, err := m.LookupBlobSize(id)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
if uint(cap(buf)) < size {
|
||||||
|
return nil, errors.New("buffer too small")
|
||||||
|
}
|
||||||
|
|
||||||
|
buf = buf[:size]
|
||||||
|
copy(buf, m.blobs[id])
|
||||||
|
return buf, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
type MockContext struct{}
|
||||||
|
|
||||||
|
func (m MockContext) Deadline() (time.Time, bool) { return time.Now(), false }
|
||||||
|
func (m MockContext) Done() <-chan struct{} { return nil }
|
||||||
|
func (m MockContext) Err() error { return nil }
|
||||||
|
func (m MockContext) Value(key interface{}) interface{} { return nil }
|
||||||
|
|
||||||
|
var testContent = genTestContent()
|
||||||
|
var testContentLengths = []uint{
|
||||||
|
4646 * 1024,
|
||||||
|
655 * 1024,
|
||||||
|
378 * 1024,
|
||||||
|
8108 * 1024,
|
||||||
|
558 * 1024,
|
||||||
|
}
|
||||||
|
var testMaxFileSize uint
|
||||||
|
|
||||||
|
func genTestContent() map[backend.ID][]byte {
|
||||||
|
m := make(map[backend.ID][]byte)
|
||||||
|
|
||||||
|
for _, length := range testContentLengths {
|
||||||
|
buf := Random(int(length), int(length))
|
||||||
|
id := backend.Hash(buf)
|
||||||
|
m[id] = buf
|
||||||
|
testMaxFileSize += length
|
||||||
|
}
|
||||||
|
|
||||||
|
return m
|
||||||
|
}
|
||||||
|
|
||||||
|
const maxBufSize = 20 * 1024 * 1024
|
||||||
|
|
||||||
|
func testRead(t *testing.T, f *file, offset, length int, data []byte) []byte {
|
||||||
|
ctx := MockContext{}
|
||||||
|
|
||||||
|
req := &fuse.ReadRequest{
|
||||||
|
Offset: int64(offset),
|
||||||
|
Size: length,
|
||||||
|
}
|
||||||
|
resp := &fuse.ReadResponse{
|
||||||
|
Data: make([]byte, length),
|
||||||
|
}
|
||||||
|
OK(t, f.Read(ctx, req, resp))
|
||||||
|
|
||||||
|
return resp.Data
|
||||||
|
}
|
||||||
|
|
||||||
|
var offsetReadsTests = []struct {
|
||||||
|
offset, length int
|
||||||
|
}{
|
||||||
|
{0, 5 * 1024 * 1024},
|
||||||
|
{4000 * 1024, 1000 * 1024},
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestFuseFile(t *testing.T) {
|
||||||
|
repo := NewMockRepo(testContent)
|
||||||
|
ctx := MockContext{}
|
||||||
|
|
||||||
|
memfile := make([]byte, 0, maxBufSize)
|
||||||
|
|
||||||
|
var ids backend.IDs
|
||||||
|
for id, buf := range repo.blobs {
|
||||||
|
ids = append(ids, id)
|
||||||
|
memfile = append(memfile, buf...)
|
||||||
|
}
|
||||||
|
|
||||||
|
node := &restic.Node{
|
||||||
|
Name: "foo",
|
||||||
|
Inode: 23,
|
||||||
|
Mode: 0742,
|
||||||
|
Size: 42,
|
||||||
|
Content: ids,
|
||||||
|
}
|
||||||
|
f, err := newFile(repo, node)
|
||||||
|
OK(t, err)
|
||||||
|
|
||||||
|
attr := fuse.Attr{}
|
||||||
|
OK(t, f.Attr(ctx, &attr))
|
||||||
|
|
||||||
|
Equals(t, node.Inode, attr.Inode)
|
||||||
|
Equals(t, node.Mode, attr.Mode)
|
||||||
|
Equals(t, node.Size, attr.Size)
|
||||||
|
|
||||||
|
for i, test := range offsetReadsTests {
|
||||||
|
b := memfile[test.offset : test.offset+test.length]
|
||||||
|
res := testRead(t, f, test.offset, test.length, b)
|
||||||
|
if !bytes.Equal(b, res) {
|
||||||
|
t.Errorf("test %d failed, wrong data returned", i)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
for i := 0; i < 200; i++ {
|
||||||
|
length := rand.Intn(int(testMaxFileSize) / 2)
|
||||||
|
offset := rand.Intn(int(testMaxFileSize))
|
||||||
|
if length+offset > int(testMaxFileSize) {
|
||||||
|
diff := length + offset - int(testMaxFileSize)
|
||||||
|
length -= diff
|
||||||
|
}
|
||||||
|
|
||||||
|
b := memfile[offset : offset+length]
|
||||||
|
fmt.Printf("test offset %d, length %d\n", offset, length)
|
||||||
|
res := testRead(t, f, offset, length, b)
|
||||||
|
if !bytes.Equal(b, res) {
|
||||||
|
t.Errorf("test %d failed (offset %d, length %d), wrong data returned", i, offset, length)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
|
@ -60,6 +60,7 @@ func (sn *SnapshotsDir) updateCache(ctx context.Context) error {
|
||||||
}
|
}
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
func (sn *SnapshotsDir) get(name string) (snapshot SnapshotWithId, ok bool) {
|
func (sn *SnapshotsDir) get(name string) (snapshot SnapshotWithId, ok bool) {
|
||||||
sn.RLock()
|
sn.RLock()
|
||||||
snapshot, ok = sn.knownSnapshots[name]
|
snapshot, ok = sn.knownSnapshots[name]
|
13
node.go
13
node.go
|
@ -209,8 +209,19 @@ func (node Node) createFileAt(path string, repo *repository.Repository) error {
|
||||||
return errors.Annotate(err, "OpenFile")
|
return errors.Annotate(err, "OpenFile")
|
||||||
}
|
}
|
||||||
|
|
||||||
|
var buf []byte
|
||||||
for _, id := range node.Content {
|
for _, id := range node.Content {
|
||||||
buf, err := repo.LoadBlob(pack.Data, id)
|
_, _, _, length, err := repo.Index().Lookup(id)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
buf = buf[:cap(buf)]
|
||||||
|
if uint(len(buf)) < length {
|
||||||
|
buf = make([]byte, length)
|
||||||
|
}
|
||||||
|
|
||||||
|
buf, err := repo.LoadBlob(pack.Data, id, buf)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return errors.Annotate(err, "Load")
|
return errors.Annotate(err, "Load")
|
||||||
}
|
}
|
||||||
|
|
|
@ -55,7 +55,6 @@ func (r *Repository) PrefixLength(t backend.Type) (int, error) {
|
||||||
func (r *Repository) LoadAndDecrypt(t backend.Type, id backend.ID) ([]byte, error) {
|
func (r *Repository) LoadAndDecrypt(t backend.Type, id backend.ID) ([]byte, error) {
|
||||||
debug.Log("Repo.Load", "load %v with id %v", t, id.Str())
|
debug.Log("Repo.Load", "load %v with id %v", t, id.Str())
|
||||||
|
|
||||||
// load blob from pack
|
|
||||||
rd, err := r.be.Get(t, id.String())
|
rd, err := r.be.Get(t, id.String())
|
||||||
if err != nil {
|
if err != nil {
|
||||||
debug.Log("Repo.Load", "error loading %v: %v", id.Str(), err)
|
debug.Log("Repo.Load", "error loading %v: %v", id.Str(), err)
|
||||||
|
@ -87,8 +86,9 @@ func (r *Repository) LoadAndDecrypt(t backend.Type, id backend.ID) ([]byte, erro
|
||||||
}
|
}
|
||||||
|
|
||||||
// LoadBlob tries to load and decrypt content identified by t and id from a
|
// LoadBlob tries to load and decrypt content identified by t and id from a
|
||||||
// pack from the backend.
|
// pack from the backend, the result is stored in plaintextBuf, which must be
|
||||||
func (r *Repository) LoadBlob(t pack.BlobType, id backend.ID) ([]byte, error) {
|
// large enough to hold the complete blob.
|
||||||
|
func (r *Repository) LoadBlob(t pack.BlobType, id backend.ID, plaintextBuf []byte) ([]byte, error) {
|
||||||
debug.Log("Repo.LoadBlob", "load %v with id %v", t, id.Str())
|
debug.Log("Repo.LoadBlob", "load %v with id %v", t, id.Str())
|
||||||
// lookup pack
|
// lookup pack
|
||||||
packID, tpe, offset, length, err := r.idx.Lookup(id)
|
packID, tpe, offset, length, err := r.idx.Lookup(id)
|
||||||
|
@ -97,6 +97,10 @@ func (r *Repository) LoadBlob(t pack.BlobType, id backend.ID) ([]byte, error) {
|
||||||
return nil, err
|
return nil, err
|
||||||
}
|
}
|
||||||
|
|
||||||
|
if length > uint(cap(plaintextBuf))+crypto.Extension {
|
||||||
|
return nil, fmt.Errorf("buf is too small, need %d more bytes", length-uint(cap(plaintextBuf))-crypto.Extension)
|
||||||
|
}
|
||||||
|
|
||||||
if tpe != t {
|
if tpe != t {
|
||||||
debug.Log("Repo.LoadBlob", "wrong type returned for %v: wanted %v, got %v", id.Str(), t, tpe)
|
debug.Log("Repo.LoadBlob", "wrong type returned for %v: wanted %v, got %v", id.Str(), t, tpe)
|
||||||
return nil, fmt.Errorf("blob has wrong type %v (wanted: %v)", tpe, t)
|
return nil, fmt.Errorf("blob has wrong type %v (wanted: %v)", tpe, t)
|
||||||
|
@ -111,7 +115,9 @@ func (r *Repository) LoadBlob(t pack.BlobType, id backend.ID) ([]byte, error) {
|
||||||
return nil, err
|
return nil, err
|
||||||
}
|
}
|
||||||
|
|
||||||
buf, err := ioutil.ReadAll(rd)
|
// make buffer that is large enough for the complete blob
|
||||||
|
ciphertextBuf := make([]byte, length)
|
||||||
|
_, err = io.ReadFull(rd, ciphertextBuf)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return nil, err
|
return nil, err
|
||||||
}
|
}
|
||||||
|
@ -122,17 +128,17 @@ func (r *Repository) LoadBlob(t pack.BlobType, id backend.ID) ([]byte, error) {
|
||||||
}
|
}
|
||||||
|
|
||||||
// decrypt
|
// decrypt
|
||||||
plain, err := r.Decrypt(buf)
|
plaintextBuf, err = r.decryptTo(plaintextBuf, ciphertextBuf)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return nil, err
|
return nil, err
|
||||||
}
|
}
|
||||||
|
|
||||||
// check hash
|
// check hash
|
||||||
if !backend.Hash(plain).Equal(id) {
|
if !backend.Hash(plaintextBuf).Equal(id) {
|
||||||
return nil, errors.New("invalid data returned")
|
return nil, errors.New("invalid data returned")
|
||||||
}
|
}
|
||||||
|
|
||||||
return plain, nil
|
return plaintextBuf, nil
|
||||||
}
|
}
|
||||||
|
|
||||||
// LoadJSONUnpacked decrypts the data and afterwards calls json.Unmarshal on
|
// LoadJSONUnpacked decrypts the data and afterwards calls json.Unmarshal on
|
||||||
|
@ -195,6 +201,11 @@ func (r *Repository) LoadJSONPack(t pack.BlobType, id backend.ID, item interface
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// LookupBlobSize returns the size of blob id.
|
||||||
|
func (r *Repository) LookupBlobSize(id backend.ID) (uint, error) {
|
||||||
|
return r.Index().LookupSize(id)
|
||||||
|
}
|
||||||
|
|
||||||
const minPackSize = 4 * chunker.MiB
|
const minPackSize = 4 * chunker.MiB
|
||||||
const maxPackSize = 16 * chunker.MiB
|
const maxPackSize = 16 * chunker.MiB
|
||||||
const maxPackers = 200
|
const maxPackers = 200
|
||||||
|
@ -580,6 +591,12 @@ func (r *Repository) Init(password string) error {
|
||||||
|
|
||||||
// Decrypt authenticates and decrypts ciphertext and returns the plaintext.
|
// Decrypt authenticates and decrypts ciphertext and returns the plaintext.
|
||||||
func (r *Repository) Decrypt(ciphertext []byte) ([]byte, error) {
|
func (r *Repository) Decrypt(ciphertext []byte) ([]byte, error) {
|
||||||
|
return r.decryptTo(nil, ciphertext)
|
||||||
|
}
|
||||||
|
|
||||||
|
// decrypt authenticates and decrypts ciphertext and stores the result in
|
||||||
|
// plaintext.
|
||||||
|
func (r *Repository) decryptTo(plaintext, ciphertext []byte) ([]byte, error) {
|
||||||
if r.key == nil {
|
if r.key == nil {
|
||||||
return nil, errors.New("key for repository not set")
|
return nil, errors.New("key for repository not set")
|
||||||
}
|
}
|
||||||
|
|
|
@ -90,7 +90,7 @@ func TestSave(t *testing.T) {
|
||||||
OK(t, repo.Flush())
|
OK(t, repo.Flush())
|
||||||
|
|
||||||
// read back
|
// read back
|
||||||
buf, err := repo.LoadBlob(pack.Data, id)
|
buf, err := repo.LoadBlob(pack.Data, id, make([]byte, size))
|
||||||
|
|
||||||
Assert(t, len(buf) == len(data),
|
Assert(t, len(buf) == len(data),
|
||||||
"number of bytes read back does not match: expected %d, got %d",
|
"number of bytes read back does not match: expected %d, got %d",
|
||||||
|
@ -120,7 +120,7 @@ func TestSaveFrom(t *testing.T) {
|
||||||
OK(t, repo.Flush())
|
OK(t, repo.Flush())
|
||||||
|
|
||||||
// read back
|
// read back
|
||||||
buf, err := repo.LoadBlob(pack.Data, id)
|
buf, err := repo.LoadBlob(pack.Data, id, make([]byte, size))
|
||||||
|
|
||||||
Assert(t, len(buf) == len(data),
|
Assert(t, len(buf) == len(data),
|
||||||
"number of bytes read back does not match: expected %d, got %d",
|
"number of bytes read back does not match: expected %d, got %d",
|
||||||
|
|
Loading…
Reference in New Issue