mirror of
https://gitlab.nic.cz/labs/bird.git
synced 2024-11-10 05:08:42 +00:00
Merge commit 'ebd807c0b8eb0b7a3dc3371cd4c87ae886c00885' into haugesund
This commit is contained in:
commit
d024f471ea
@ -100,7 +100,7 @@ typedef struct slab slab;
|
|||||||
slab *sl_new(pool *, unsigned size);
|
slab *sl_new(pool *, unsigned size);
|
||||||
void *sl_alloc(slab *);
|
void *sl_alloc(slab *);
|
||||||
void *sl_allocz(slab *);
|
void *sl_allocz(slab *);
|
||||||
void sl_free(slab *, void *);
|
void sl_free(void *);
|
||||||
|
|
||||||
/*
|
/*
|
||||||
* Low-level memory allocation functions, please don't use
|
* Low-level memory allocation functions, please don't use
|
||||||
|
44
lib/slab.c
44
lib/slab.c
@ -98,7 +98,7 @@ sl_allocz(slab *s)
|
|||||||
}
|
}
|
||||||
|
|
||||||
void
|
void
|
||||||
sl_free(slab *s, void *oo)
|
sl_free(void *oo)
|
||||||
{
|
{
|
||||||
struct sl_obj *o = SKIP_BACK(struct sl_obj, data, oo);
|
struct sl_obj *o = SKIP_BACK(struct sl_obj, data, oo);
|
||||||
|
|
||||||
@ -170,6 +170,7 @@ static struct resclass sl_class = {
|
|||||||
};
|
};
|
||||||
|
|
||||||
struct sl_head {
|
struct sl_head {
|
||||||
|
struct slab *slab;
|
||||||
node n;
|
node n;
|
||||||
u32 num_full;
|
u32 num_full;
|
||||||
u32 used_bits[0];
|
u32 used_bits[0];
|
||||||
@ -236,7 +237,7 @@ sl_alloc(slab *s)
|
|||||||
struct sl_head *h;
|
struct sl_head *h;
|
||||||
|
|
||||||
redo:
|
redo:
|
||||||
h = HEAD(s->partial_heads);
|
h = SKIP_BACK(struct sl_head, n, HEAD(s->partial_heads));
|
||||||
if (!h->n.next)
|
if (!h->n.next)
|
||||||
goto no_partial;
|
goto no_partial;
|
||||||
okay:
|
okay:
|
||||||
@ -262,7 +263,7 @@ okay:
|
|||||||
goto redo;
|
goto redo;
|
||||||
|
|
||||||
no_partial:
|
no_partial:
|
||||||
h = HEAD(s->empty_heads);
|
h = SKIP_BACK(struct sl_head, n, HEAD(s->empty_heads));
|
||||||
if (h->n.next)
|
if (h->n.next)
|
||||||
{
|
{
|
||||||
rem_node(&h->n);
|
rem_node(&h->n);
|
||||||
@ -270,12 +271,16 @@ no_partial:
|
|||||||
s->num_empty_heads--;
|
s->num_empty_heads--;
|
||||||
goto okay;
|
goto okay;
|
||||||
}
|
}
|
||||||
|
|
||||||
h = alloc_page();
|
h = alloc_page();
|
||||||
|
ASSERT_DIE(SL_GET_HEAD(h) == h);
|
||||||
|
|
||||||
#ifdef POISON
|
#ifdef POISON
|
||||||
memset(h, 0xba, page_size);
|
memset(h, 0xba, page_size);
|
||||||
#endif
|
#endif
|
||||||
ASSERT_DIE(SL_GET_HEAD(h) == h);
|
|
||||||
memset(h, 0, s->head_size);
|
memset(h, 0, s->head_size);
|
||||||
|
h->slab = s;
|
||||||
add_head(&s->partial_heads, &h->n);
|
add_head(&s->partial_heads, &h->n);
|
||||||
goto okay;
|
goto okay;
|
||||||
}
|
}
|
||||||
@ -305,9 +310,10 @@ sl_allocz(slab *s)
|
|||||||
* and returns it back to the Slab @s.
|
* and returns it back to the Slab @s.
|
||||||
*/
|
*/
|
||||||
void
|
void
|
||||||
sl_free(slab *s, void *oo)
|
sl_free(void *oo)
|
||||||
{
|
{
|
||||||
struct sl_head *h = SL_GET_HEAD(oo);
|
struct sl_head *h = SL_GET_HEAD(oo);
|
||||||
|
struct slab *s = h->slab;
|
||||||
|
|
||||||
#ifdef POISON
|
#ifdef POISON
|
||||||
memset(oo, 0xdb, s->data_size);
|
memset(oo, 0xdb, s->data_size);
|
||||||
@ -347,13 +353,14 @@ static void
|
|||||||
slab_free(resource *r)
|
slab_free(resource *r)
|
||||||
{
|
{
|
||||||
slab *s = (slab *) r;
|
slab *s = (slab *) r;
|
||||||
struct sl_head *h, *g;
|
struct sl_head *h;
|
||||||
|
node *nn, *nxt;
|
||||||
|
|
||||||
WALK_LIST_DELSAFE(h, g, s->empty_heads)
|
WALK_LIST2_DELSAFE(h, nn, nxt, s->empty_heads, n)
|
||||||
free_page(h);
|
free_page(h);
|
||||||
WALK_LIST_DELSAFE(h, g, s->partial_heads)
|
WALK_LIST2_DELSAFE(h, nn, nxt, s->partial_heads, n)
|
||||||
free_page(h);
|
free_page(h);
|
||||||
WALK_LIST_DELSAFE(h, g, s->full_heads)
|
WALK_LIST2_DELSAFE(h, nn, nxt, s->full_heads, n)
|
||||||
free_page(h);
|
free_page(h);
|
||||||
}
|
}
|
||||||
|
|
||||||
@ -363,12 +370,13 @@ slab_dump(resource *r)
|
|||||||
slab *s = (slab *) r;
|
slab *s = (slab *) r;
|
||||||
int ec=0, pc=0, fc=0;
|
int ec=0, pc=0, fc=0;
|
||||||
struct sl_head *h;
|
struct sl_head *h;
|
||||||
|
node *nn;
|
||||||
|
|
||||||
WALK_LIST(h, s->empty_heads)
|
WALK_LIST2(h, nn, s->empty_heads, n)
|
||||||
ec++;
|
ec++;
|
||||||
WALK_LIST(h, s->partial_heads)
|
WALK_LIST2(h, nn, s->partial_heads, n)
|
||||||
pc++;
|
pc++;
|
||||||
WALK_LIST(h, s->full_heads)
|
WALK_LIST2(h, nn, s->full_heads, n)
|
||||||
fc++;
|
fc++;
|
||||||
debug("(%de+%dp+%df blocks per %d objs per %d bytes)\n", ec, pc, fc, s->objs_per_slab, s->obj_size);
|
debug("(%de+%dp+%df blocks per %d objs per %d bytes)\n", ec, pc, fc, s->objs_per_slab, s->obj_size);
|
||||||
}
|
}
|
||||||
@ -379,19 +387,20 @@ slab_memsize(resource *r)
|
|||||||
slab *s = (slab *) r;
|
slab *s = (slab *) r;
|
||||||
size_t heads = 0;
|
size_t heads = 0;
|
||||||
struct sl_head *h;
|
struct sl_head *h;
|
||||||
|
node *nn;
|
||||||
|
|
||||||
WALK_LIST(h, s->full_heads)
|
WALK_LIST2(h, nn, s->full_heads, n)
|
||||||
heads++;
|
heads++;
|
||||||
|
|
||||||
size_t items = heads * s->objs_per_slab;
|
size_t items = heads * s->objs_per_slab;
|
||||||
|
|
||||||
WALK_LIST(h, s->partial_heads)
|
WALK_LIST2(h, nn, s->partial_heads, n)
|
||||||
{
|
{
|
||||||
heads++;
|
heads++;
|
||||||
items += h->num_full;
|
items += h->num_full;
|
||||||
}
|
}
|
||||||
|
|
||||||
WALK_LIST(h, s->empty_heads)
|
WALK_LIST2(h, nn, s->empty_heads, n)
|
||||||
heads++;
|
heads++;
|
||||||
|
|
||||||
size_t eff = items * s->data_size;
|
size_t eff = items * s->data_size;
|
||||||
@ -407,11 +416,12 @@ slab_lookup(resource *r, unsigned long a)
|
|||||||
{
|
{
|
||||||
slab *s = (slab *) r;
|
slab *s = (slab *) r;
|
||||||
struct sl_head *h;
|
struct sl_head *h;
|
||||||
|
node *nn;
|
||||||
|
|
||||||
WALK_LIST(h, s->partial_heads)
|
WALK_LIST2(h, nn, s->partial_heads, n)
|
||||||
if ((unsigned long) h < a && (unsigned long) h + page_size < a)
|
if ((unsigned long) h < a && (unsigned long) h + page_size < a)
|
||||||
return r;
|
return r;
|
||||||
WALK_LIST(h, s->full_heads)
|
WALK_LIST2(h, nn, s->full_heads, n)
|
||||||
if ((unsigned long) h < a && (unsigned long) h + page_size < a)
|
if ((unsigned long) h < a && (unsigned long) h + page_size < a)
|
||||||
return r;
|
return r;
|
||||||
return NULL;
|
return NULL;
|
||||||
|
100
lib/slab_test.c
100
lib/slab_test.c
@ -17,6 +17,25 @@ static const int sizes[] = {
|
|||||||
#define TEST_SIZE 1024 * 128
|
#define TEST_SIZE 1024 * 128
|
||||||
#define ITEMS(sz) TEST_SIZE / ( (sz) >> u32_log2((sz))/2 )
|
#define ITEMS(sz) TEST_SIZE / ( (sz) >> u32_log2((sz))/2 )
|
||||||
|
|
||||||
|
struct test_request {
|
||||||
|
int size;
|
||||||
|
enum strategy {
|
||||||
|
TEST_NONE,
|
||||||
|
TEST_FORWARDS,
|
||||||
|
TEST_BACKWARDS,
|
||||||
|
TEST_RANDOM,
|
||||||
|
TEST_MIXED,
|
||||||
|
TEST__MAX,
|
||||||
|
} strategy;
|
||||||
|
};
|
||||||
|
|
||||||
|
const char * const strategy_name[TEST__MAX] = {
|
||||||
|
[TEST_FORWARDS] = "forwards",
|
||||||
|
[TEST_BACKWARDS] = "backwards",
|
||||||
|
[TEST_RANDOM] = "random",
|
||||||
|
[TEST_MIXED] = "mixed",
|
||||||
|
};
|
||||||
|
|
||||||
static inline byte *test_alloc(slab *s, int sz, struct resmem *sliz)
|
static inline byte *test_alloc(slab *s, int sz, struct resmem *sliz)
|
||||||
{
|
{
|
||||||
byte *out = sl_alloc(s);
|
byte *out = sl_alloc(s);
|
||||||
@ -42,7 +61,7 @@ static inline void test_free(slab *s, byte *block, int sz, struct resmem *sliz)
|
|||||||
block[p]++;
|
block[p]++;
|
||||||
}
|
}
|
||||||
|
|
||||||
sl_free(s, block);
|
sl_free(block);
|
||||||
|
|
||||||
struct resmem ns = rmemsize((resource *) s);
|
struct resmem ns = rmemsize((resource *) s);
|
||||||
|
|
||||||
@ -60,60 +79,37 @@ static inline struct resmem get_memsize(slab *s)
|
|||||||
}
|
}
|
||||||
|
|
||||||
static int
|
static int
|
||||||
t_slab_forwards(const void *data)
|
t_slab(const void *data)
|
||||||
{
|
{
|
||||||
int sz = (intptr_t) data;
|
const struct test_request *tr = data;
|
||||||
slab *s = sl_new(&root_pool, sz);
|
int sz = tr->size;
|
||||||
|
|
||||||
|
slab *s = sl_new(&root_pool, sz);
|
||||||
struct resmem sliz = get_memsize(s);
|
struct resmem sliz = get_memsize(s);
|
||||||
|
|
||||||
int n = ITEMS(sz);
|
int n = ITEMS(sz);
|
||||||
byte **block = mb_alloc(&root_pool, n * sizeof(*block));
|
byte **block = mb_alloc(&root_pool, n * sizeof(*block));
|
||||||
|
|
||||||
|
switch (tr->strategy) {
|
||||||
|
case TEST_FORWARDS:
|
||||||
for (int i = 0; i < n; i++)
|
for (int i = 0; i < n; i++)
|
||||||
block[i] = test_alloc(s, sz, &sliz);
|
block[i] = test_alloc(s, sz, &sliz);
|
||||||
|
|
||||||
for (int i = 0; i < n; i++)
|
for (int i = 0; i < n; i++)
|
||||||
test_free(s, block[i], sz, &sliz);
|
test_free(s, block[i], sz, &sliz);
|
||||||
|
|
||||||
mb_free(block);
|
break;
|
||||||
|
|
||||||
return 1;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int
|
|
||||||
t_slab_backwards(const void *data)
|
|
||||||
{
|
|
||||||
int sz = (intptr_t) data;
|
|
||||||
slab *s = sl_new(&root_pool, sz);
|
|
||||||
|
|
||||||
struct resmem sliz = get_memsize(s);
|
|
||||||
|
|
||||||
int n = ITEMS(sz);
|
|
||||||
byte **block = mb_alloc(&root_pool, n * sizeof(*block));
|
|
||||||
|
|
||||||
|
case TEST_BACKWARDS:
|
||||||
for (int i = 0; i < n; i++)
|
for (int i = 0; i < n; i++)
|
||||||
block[i] = test_alloc(s, sz, &sliz);
|
block[i] = test_alloc(s, sz, &sliz);
|
||||||
|
|
||||||
for (int i = n - 1; i >= 0; i--)
|
for (int i = n - 1; i >= 0; i--)
|
||||||
test_free(s, block[i], sz, &sliz);
|
test_free(s, block[i], sz, &sliz);
|
||||||
|
|
||||||
mb_free(block);
|
break;
|
||||||
|
|
||||||
return 1;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int
|
|
||||||
t_slab_random(const void *data)
|
|
||||||
{
|
|
||||||
int sz = (intptr_t) data;
|
|
||||||
slab *s = sl_new(&root_pool, sz);
|
|
||||||
|
|
||||||
struct resmem sliz = get_memsize(s);
|
|
||||||
|
|
||||||
int n = ITEMS(sz);
|
|
||||||
byte **block = mb_alloc(&root_pool, n * sizeof(*block));
|
|
||||||
|
|
||||||
|
case TEST_RANDOM:
|
||||||
for (int i = 0; i < n; i++)
|
for (int i = 0; i < n; i++)
|
||||||
block[i] = test_alloc(s, sz, &sliz);
|
block[i] = test_alloc(s, sz, &sliz);
|
||||||
|
|
||||||
@ -125,22 +121,10 @@ t_slab_random(const void *data)
|
|||||||
block[pos] = block[n - i - 1];
|
block[pos] = block[n - i - 1];
|
||||||
}
|
}
|
||||||
|
|
||||||
mb_free(block);
|
break;
|
||||||
|
|
||||||
return 1;
|
case TEST_MIXED:
|
||||||
}
|
|
||||||
|
|
||||||
static int
|
|
||||||
t_slab_mixed(const void *data)
|
|
||||||
{
|
{
|
||||||
int sz = (intptr_t) data;
|
|
||||||
slab *s = sl_new(&root_pool, sz);
|
|
||||||
|
|
||||||
struct resmem sliz = get_memsize(s);
|
|
||||||
|
|
||||||
int n = ITEMS(sz);
|
|
||||||
byte **block = mb_alloc(&root_pool, n * sizeof(*block));
|
|
||||||
|
|
||||||
int cur = 0;
|
int cur = 0;
|
||||||
int pending = n;
|
int pending = n;
|
||||||
|
|
||||||
@ -157,20 +141,30 @@ t_slab_mixed(const void *data)
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
mb_free(block);
|
break;
|
||||||
|
}
|
||||||
|
|
||||||
|
default: bug("This shouldn't happen");
|
||||||
|
}
|
||||||
|
|
||||||
|
mb_free(block);
|
||||||
return 1;
|
return 1;
|
||||||
}
|
}
|
||||||
int main(int argc, char *argv[])
|
int main(int argc, char *argv[])
|
||||||
{
|
{
|
||||||
bt_init(argc, argv);
|
bt_init(argc, argv);
|
||||||
|
|
||||||
|
struct test_request tr;
|
||||||
|
|
||||||
for (uint i = 0; i < sizeof(sizes) / sizeof(*sizes); i++)
|
for (uint i = 0; i < sizeof(sizes) / sizeof(*sizes); i++)
|
||||||
|
for (uint strategy = TEST_FORWARDS; strategy < TEST__MAX; strategy++)
|
||||||
{
|
{
|
||||||
bt_test_suite_arg(t_slab_forwards, (void *) (intptr_t) sizes[i], "Slab deallocation from beginning to end, size=%d", sizes[i]);
|
tr = (struct test_request) {
|
||||||
bt_test_suite_arg(t_slab_backwards, (void *) (intptr_t) sizes[i], "Slab deallocation from end to beginning, size=%d", sizes[i]);
|
.size = sizes[i],
|
||||||
bt_test_suite_arg(t_slab_random, (void *) (intptr_t) sizes[i], "Slab deallocation in random order, size=%d", sizes[i]);
|
.strategy = strategy,
|
||||||
bt_test_suite_arg(t_slab_mixed, (void *) (intptr_t) sizes[i], "Slab deallocation in mixed order, size=%d", sizes[i]);
|
};
|
||||||
|
bt_test_suite_arg(t_slab, &tr, "Slab allocator test, size=%d, strategy=%s",
|
||||||
|
tr.size, strategy_name[strategy]);
|
||||||
}
|
}
|
||||||
|
|
||||||
return bt_exit_value();
|
return bt_exit_value();
|
||||||
|
@ -345,7 +345,7 @@ neigh_free(neighbor *n)
|
|||||||
{
|
{
|
||||||
rem_node(&n->n);
|
rem_node(&n->n);
|
||||||
rem_node(&n->if_n);
|
rem_node(&n->if_n);
|
||||||
sl_free(neigh_slab, n);
|
sl_free(n);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
|
@ -487,7 +487,7 @@ void rt_refresh_end(rtable *t, struct rt_import_request *);
|
|||||||
void rt_modify_stale(rtable *t, struct rt_import_request *);
|
void rt_modify_stale(rtable *t, struct rt_import_request *);
|
||||||
void rt_schedule_prune(rtable *t);
|
void rt_schedule_prune(rtable *t);
|
||||||
void rte_dump(struct rte_storage *);
|
void rte_dump(struct rte_storage *);
|
||||||
void rte_free(struct rte_storage *, rtable *);
|
void rte_free(struct rte_storage *);
|
||||||
struct rte_storage *rte_store(const rte *, net *net, rtable *);
|
struct rte_storage *rte_store(const rte *, net *net, rtable *);
|
||||||
void rt_dump(rtable *);
|
void rt_dump(rtable *);
|
||||||
void rt_dump_all(void);
|
void rt_dump_all(void);
|
||||||
|
@ -154,7 +154,7 @@ rt_prune_sources(void)
|
|||||||
{
|
{
|
||||||
HASH_DO_REMOVE(src_hash, RSH, sp);
|
HASH_DO_REMOVE(src_hash, RSH, sp);
|
||||||
idm_free(&src_ids, src->global_id);
|
idm_free(&src_ids, src->global_id);
|
||||||
sl_free(rte_src_slab, src);
|
sl_free(src);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
HASH_WALK_FILTER_END;
|
HASH_WALK_FILTER_END;
|
||||||
@ -391,7 +391,7 @@ nexthop_free(struct nexthop *o)
|
|||||||
while (o)
|
while (o)
|
||||||
{
|
{
|
||||||
n = o->next;
|
n = o->next;
|
||||||
sl_free(nexthop_slab(o), o);
|
sl_free(o);
|
||||||
o = n;
|
o = n;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -1231,7 +1231,7 @@ rta__free(rta *a)
|
|||||||
nexthop_free(a->nh.next);
|
nexthop_free(a->nh.next);
|
||||||
ea_free(a->eattrs);
|
ea_free(a->eattrs);
|
||||||
a->cached = 0;
|
a->cached = 0;
|
||||||
sl_free(rta_slab(a), a);
|
sl_free(a);
|
||||||
}
|
}
|
||||||
|
|
||||||
rta *
|
rta *
|
||||||
|
@ -475,7 +475,7 @@ fib_delete(struct fib *f, void *E)
|
|||||||
}
|
}
|
||||||
|
|
||||||
if (f->fib_slab)
|
if (f->fib_slab)
|
||||||
sl_free(f->fib_slab, E);
|
sl_free(E);
|
||||||
else
|
else
|
||||||
mb_free(E);
|
mb_free(E);
|
||||||
|
|
||||||
|
@ -617,11 +617,11 @@ rte_store(const rte *r, net *net, rtable *tab)
|
|||||||
*/
|
*/
|
||||||
|
|
||||||
void
|
void
|
||||||
rte_free(struct rte_storage *e, rtable *tab)
|
rte_free(struct rte_storage *e)
|
||||||
{
|
{
|
||||||
rt_unlock_source(e->rte.src);
|
rt_unlock_source(e->rte.src);
|
||||||
rta_free(e->rte.attrs);
|
rta_free(e->rte.attrs);
|
||||||
sl_free(tab->rte_slab, e);
|
sl_free(e);
|
||||||
}
|
}
|
||||||
|
|
||||||
static int /* Actually better or at least as good as */
|
static int /* Actually better or at least as good as */
|
||||||
@ -852,7 +852,7 @@ do_rt_notify(struct channel *c, const net_addr *net, rte *new, const rte *old)
|
|||||||
p->rt_notify(p, c, net, new, old_exported ? &old_exported->rte : old);
|
p->rt_notify(p, c, net, new, old_exported ? &old_exported->rte : old);
|
||||||
|
|
||||||
if (c->out_table && old_exported)
|
if (c->out_table && old_exported)
|
||||||
rte_free(old_exported, c->out_table);
|
rte_free(old_exported);
|
||||||
}
|
}
|
||||||
|
|
||||||
static void
|
static void
|
||||||
@ -1469,7 +1469,7 @@ rte_recalculate(struct rt_import_hook *c, net *net, rte *new, struct rte_src *sr
|
|||||||
if (!new_stored)
|
if (!new_stored)
|
||||||
hmap_clear(&table->id_map, old->id);
|
hmap_clear(&table->id_map, old->id);
|
||||||
|
|
||||||
rte_free(old_stored, table);
|
rte_free(old_stored);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
@ -2856,7 +2856,7 @@ rt_next_hop_update_net(rtable *tab, net *n)
|
|||||||
}
|
}
|
||||||
|
|
||||||
for (int i=0; i<count; i++)
|
for (int i=0; i<count; i++)
|
||||||
rte_free(updates[i].old, tab);
|
rte_free(updates[i].old);
|
||||||
|
|
||||||
return count;
|
return count;
|
||||||
}
|
}
|
||||||
@ -3144,7 +3144,7 @@ rte_update_in(struct channel *c, const net_addr *n, rte *new, struct rte_src *sr
|
|||||||
/* Remove the old rte */
|
/* Remove the old rte */
|
||||||
struct rte_storage *del = *pos;
|
struct rte_storage *del = *pos;
|
||||||
*pos = (*pos)->next;
|
*pos = (*pos)->next;
|
||||||
rte_free(del, tab);
|
rte_free(del);
|
||||||
tab->rt_count--;
|
tab->rt_count--;
|
||||||
}
|
}
|
||||||
else if (new)
|
else if (new)
|
||||||
@ -3268,7 +3268,7 @@ again:
|
|||||||
if (all || (e->rte.flags & (REF_STALE | REF_DISCARD)))
|
if (all || (e->rte.flags & (REF_STALE | REF_DISCARD)))
|
||||||
{
|
{
|
||||||
*ee = e->next;
|
*ee = e->next;
|
||||||
rte_free(e, t);
|
rte_free(e);
|
||||||
t->rt_count--;
|
t->rt_count--;
|
||||||
}
|
}
|
||||||
else
|
else
|
||||||
@ -3471,7 +3471,7 @@ hc_delete_hostentry(struct hostcache *hc, pool *p, struct hostentry *he)
|
|||||||
|
|
||||||
rem_node(&he->ln);
|
rem_node(&he->ln);
|
||||||
hc_remove(hc, he);
|
hc_remove(hc, he);
|
||||||
sl_free(hc->slab, he);
|
sl_free(he);
|
||||||
|
|
||||||
hc->hash_items--;
|
hc->hash_items--;
|
||||||
if (hc->hash_items < hc->hash_min)
|
if (hc->hash_items < hc->hash_min)
|
||||||
|
@ -119,7 +119,7 @@ babel_get_source(struct babel_proto *p, struct babel_entry *e, u64 router_id)
|
|||||||
}
|
}
|
||||||
|
|
||||||
static void
|
static void
|
||||||
babel_expire_sources(struct babel_proto *p, struct babel_entry *e)
|
babel_expire_sources(struct babel_proto *p UNUSED, struct babel_entry *e)
|
||||||
{
|
{
|
||||||
struct babel_source *n, *nx;
|
struct babel_source *n, *nx;
|
||||||
btime now_ = current_time();
|
btime now_ = current_time();
|
||||||
@ -129,7 +129,7 @@ babel_expire_sources(struct babel_proto *p, struct babel_entry *e)
|
|||||||
if (n->expires && n->expires <= now_)
|
if (n->expires && n->expires <= now_)
|
||||||
{
|
{
|
||||||
rem_node(NODE n);
|
rem_node(NODE n);
|
||||||
sl_free(p->source_slab, n);
|
sl_free(n);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -174,7 +174,7 @@ babel_retract_route(struct babel_proto *p, struct babel_route *r)
|
|||||||
}
|
}
|
||||||
|
|
||||||
static void
|
static void
|
||||||
babel_flush_route(struct babel_proto *p, struct babel_route *r)
|
babel_flush_route(struct babel_proto *p UNUSED, struct babel_route *r)
|
||||||
{
|
{
|
||||||
DBG("Babel: Flush route %N router_id %lR neigh %I\n",
|
DBG("Babel: Flush route %N router_id %lR neigh %I\n",
|
||||||
r->e->n.addr, r->router_id, r->neigh->addr);
|
r->e->n.addr, r->router_id, r->neigh->addr);
|
||||||
@ -185,7 +185,7 @@ babel_flush_route(struct babel_proto *p, struct babel_route *r)
|
|||||||
if (r->e->selected == r)
|
if (r->e->selected == r)
|
||||||
r->e->selected = NULL;
|
r->e->selected = NULL;
|
||||||
|
|
||||||
sl_free(p->route_slab, r);
|
sl_free(r);
|
||||||
}
|
}
|
||||||
|
|
||||||
static void
|
static void
|
||||||
@ -336,13 +336,13 @@ found:
|
|||||||
}
|
}
|
||||||
|
|
||||||
static void
|
static void
|
||||||
babel_remove_seqno_request(struct babel_proto *p, struct babel_seqno_request *sr)
|
babel_remove_seqno_request(struct babel_proto *p UNUSED, struct babel_seqno_request *sr)
|
||||||
{
|
{
|
||||||
if (sr->nbr)
|
if (sr->nbr)
|
||||||
rem_node(&sr->nbr_node);
|
rem_node(&sr->nbr_node);
|
||||||
|
|
||||||
rem_node(NODE sr);
|
rem_node(NODE sr);
|
||||||
sl_free(p->seqno_slab, sr);
|
sl_free(sr);
|
||||||
}
|
}
|
||||||
|
|
||||||
static int
|
static int
|
||||||
|
@ -1318,7 +1318,6 @@ babel_send_to(struct babel_iface *ifa, ip_addr dest)
|
|||||||
static uint
|
static uint
|
||||||
babel_write_queue(struct babel_iface *ifa, list *queue)
|
babel_write_queue(struct babel_iface *ifa, list *queue)
|
||||||
{
|
{
|
||||||
struct babel_proto *p = ifa->proto;
|
|
||||||
struct babel_write_state state = { .next_hop_ip6 = ifa->addr };
|
struct babel_write_state state = { .next_hop_ip6 = ifa->addr };
|
||||||
|
|
||||||
if (EMPTY_LIST(*queue))
|
if (EMPTY_LIST(*queue))
|
||||||
@ -1346,7 +1345,7 @@ babel_write_queue(struct babel_iface *ifa, list *queue)
|
|||||||
|
|
||||||
pos += len;
|
pos += len;
|
||||||
rem_node(NODE msg);
|
rem_node(NODE msg);
|
||||||
sl_free(p->msg_slab, msg);
|
sl_free(msg);
|
||||||
}
|
}
|
||||||
|
|
||||||
pos += babel_auth_add_tlvs(ifa, (struct babel_tlv *) pos, end - pos);
|
pos += babel_auth_add_tlvs(ifa, (struct babel_tlv *) pos, end - pos);
|
||||||
@ -1507,13 +1506,13 @@ babel_process_packet(struct babel_iface *ifa,
|
|||||||
else if (res == PARSE_IGNORE)
|
else if (res == PARSE_IGNORE)
|
||||||
{
|
{
|
||||||
DBG("Babel: Ignoring TLV of type %d\n", tlv->type);
|
DBG("Babel: Ignoring TLV of type %d\n", tlv->type);
|
||||||
sl_free(p->msg_slab, msg);
|
sl_free(msg);
|
||||||
}
|
}
|
||||||
else /* PARSE_ERROR */
|
else /* PARSE_ERROR */
|
||||||
{
|
{
|
||||||
LOG_PKT("Bad TLV from %I via %s type %d pos %d - parse error",
|
LOG_PKT("Bad TLV from %I via %s type %d pos %d - parse error",
|
||||||
saddr, ifa->iface->name, tlv->type, (int) ((byte *)tlv - (byte *)pkt));
|
saddr, ifa->iface->name, tlv->type, (int) ((byte *)tlv - (byte *)pkt));
|
||||||
sl_free(p->msg_slab, msg);
|
sl_free(msg);
|
||||||
break;
|
break;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -1525,7 +1524,7 @@ babel_process_packet(struct babel_iface *ifa,
|
|||||||
if (tlv_data[msg->msg.type].handle_tlv)
|
if (tlv_data[msg->msg.type].handle_tlv)
|
||||||
tlv_data[msg->msg.type].handle_tlv(&msg->msg, ifa);
|
tlv_data[msg->msg.type].handle_tlv(&msg->msg, ifa);
|
||||||
rem_node(NODE msg);
|
rem_node(NODE msg);
|
||||||
sl_free(p->msg_slab, msg);
|
sl_free(msg);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -508,7 +508,7 @@ bfd_remove_session(struct bfd_proto *p, struct bfd_session *s)
|
|||||||
HASH_REMOVE(p->session_hash_id, HASH_ID, s);
|
HASH_REMOVE(p->session_hash_id, HASH_ID, s);
|
||||||
HASH_REMOVE(p->session_hash_ip, HASH_IP, s);
|
HASH_REMOVE(p->session_hash_ip, HASH_IP, s);
|
||||||
|
|
||||||
sl_free(p->session_slab, s);
|
sl_free(s);
|
||||||
|
|
||||||
TRACE(D_EVENTS, "Session to %I removed", ip);
|
TRACE(D_EVENTS, "Session to %I removed", ip);
|
||||||
|
|
||||||
|
@ -1664,7 +1664,7 @@ bgp_free_prefix(struct bgp_channel *c, struct bgp_prefix *px)
|
|||||||
HASH_REMOVE2(c->prefix_hash, PXH, c->pool, px);
|
HASH_REMOVE2(c->prefix_hash, PXH, c->pool, px);
|
||||||
|
|
||||||
if (c->prefix_slab)
|
if (c->prefix_slab)
|
||||||
sl_free(c->prefix_slab, px);
|
sl_free(px);
|
||||||
else
|
else
|
||||||
mb_free(px);
|
mb_free(px);
|
||||||
}
|
}
|
||||||
|
@ -2135,7 +2135,7 @@ ospf_hash_delete(struct top_graph *f, struct top_hash_entry *e)
|
|||||||
if (*ee == e)
|
if (*ee == e)
|
||||||
{
|
{
|
||||||
*ee = e->next;
|
*ee = e->next;
|
||||||
sl_free(f->hash_slab, e);
|
sl_free(e);
|
||||||
if (f->hash_entries-- < f->hash_entries_min)
|
if (f->hash_entries-- < f->hash_entries_min)
|
||||||
ospf_top_rehash(f, -HASH_LO_STEP);
|
ospf_top_rehash(f, -HASH_LO_STEP);
|
||||||
return;
|
return;
|
||||||
|
@ -108,14 +108,14 @@ rip_add_rte(struct rip_proto *p, struct rip_rte **rp, struct rip_rte *src)
|
|||||||
}
|
}
|
||||||
|
|
||||||
static inline void
|
static inline void
|
||||||
rip_remove_rte(struct rip_proto *p, struct rip_rte **rp)
|
rip_remove_rte(struct rip_proto *p UNUSED, struct rip_rte **rp)
|
||||||
{
|
{
|
||||||
struct rip_rte *rt = *rp;
|
struct rip_rte *rt = *rp;
|
||||||
|
|
||||||
rip_unlock_neighbor(rt->from);
|
rip_unlock_neighbor(rt->from);
|
||||||
|
|
||||||
*rp = rt->next;
|
*rp = rt->next;
|
||||||
sl_free(p->rte_slab, rt);
|
sl_free(rt);
|
||||||
}
|
}
|
||||||
|
|
||||||
static inline int rip_same_rte(struct rip_rte *a, struct rip_rte *b)
|
static inline int rip_same_rte(struct rip_rte *a, struct rip_rte *b)
|
||||||
|
@ -330,14 +330,14 @@ krt_learn_scan(struct krt_proto *p, rte *e)
|
|||||||
if (krt_uptodate(&m->rte, e))
|
if (krt_uptodate(&m->rte, e))
|
||||||
{
|
{
|
||||||
krt_trace_in_rl(&rl_alien, p, e, "[alien] seen");
|
krt_trace_in_rl(&rl_alien, p, e, "[alien] seen");
|
||||||
rte_free(ee, p->krt_table);
|
rte_free(ee);
|
||||||
m->rte.pflags |= KRT_REF_SEEN;
|
m->rte.pflags |= KRT_REF_SEEN;
|
||||||
}
|
}
|
||||||
else
|
else
|
||||||
{
|
{
|
||||||
krt_trace_in(p, e, "[alien] updated");
|
krt_trace_in(p, e, "[alien] updated");
|
||||||
*mm = m->next;
|
*mm = m->next;
|
||||||
rte_free(m, p->krt_table);
|
rte_free(m);
|
||||||
m = NULL;
|
m = NULL;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -384,7 +384,7 @@ again:
|
|||||||
if (!(e->rte.pflags & KRT_REF_SEEN))
|
if (!(e->rte.pflags & KRT_REF_SEEN))
|
||||||
{
|
{
|
||||||
*ee = e->next;
|
*ee = e->next;
|
||||||
rte_free(e, p->krt_table);
|
rte_free(e);
|
||||||
continue;
|
continue;
|
||||||
}
|
}
|
||||||
|
|
||||||
@ -448,12 +448,12 @@ krt_learn_async(struct krt_proto *p, rte *e, int new)
|
|||||||
if (krt_uptodate(&g->rte, e))
|
if (krt_uptodate(&g->rte, e))
|
||||||
{
|
{
|
||||||
krt_trace_in(p, e, "[alien async] same");
|
krt_trace_in(p, e, "[alien async] same");
|
||||||
rte_free(ee, p->krt_table);
|
rte_free(ee);
|
||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
krt_trace_in(p, e, "[alien async] updated");
|
krt_trace_in(p, e, "[alien async] updated");
|
||||||
*gg = g->next;
|
*gg = g->next;
|
||||||
rte_free(g, p->krt_table);
|
rte_free(g);
|
||||||
}
|
}
|
||||||
else
|
else
|
||||||
krt_trace_in(p, e, "[alien async] created");
|
krt_trace_in(p, e, "[alien async] created");
|
||||||
@ -464,15 +464,15 @@ krt_learn_async(struct krt_proto *p, rte *e, int new)
|
|||||||
else if (!g)
|
else if (!g)
|
||||||
{
|
{
|
||||||
krt_trace_in(p, e, "[alien async] delete failed");
|
krt_trace_in(p, e, "[alien async] delete failed");
|
||||||
rte_free(ee, p->krt_table);
|
rte_free(ee);
|
||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
else
|
else
|
||||||
{
|
{
|
||||||
krt_trace_in(p, e, "[alien async] removed");
|
krt_trace_in(p, e, "[alien async] removed");
|
||||||
*gg = g->next;
|
*gg = g->next;
|
||||||
rte_free(ee, p->krt_table);
|
rte_free(ee);
|
||||||
rte_free(g, p->krt_table);
|
rte_free(g);
|
||||||
}
|
}
|
||||||
best = n->routes;
|
best = n->routes;
|
||||||
bestp = &n->routes;
|
bestp = &n->routes;
|
||||||
|
Loading…
Reference in New Issue
Block a user