Почему Пустой критический раздел в крючках netfilter возникает "ошибка: планирование при атомной ошибке"?
Я написал этот крючок:
#include <linux/kernel.h>
#include <linux/module.h>
#include <linux/netfilter.h>
#include <linux/netfilter_ipv4.h>
#include <linux/skbuff.h>
#include <linux/mutex.h>
static struct nf_hook_ops nfho;
static struct mutex critical_section;
unsigned int hook_func(unsigned int hooknum,
struct sk_buff **skb,
const struct net_device *in,
const struct net_device *out,
int (*okfn)(struct sk_buff *)) {
mutex_lock(&critical_section);
mutex_unlock(&critical_section);
return NF_ACCEPT;
}
int init_module() {
nfho.hook = hook_func;
nfho.hooknum = NF_INET_PRE_ROUTING;
nfho.pf = PF_INET;
nfho.priority = NF_IP_PRI_FIRST;
mutex_init(&critical_section);
nf_register_hook(&nfho);
return 0;
}
void cleanup_module() {
nf_unregister_hook(&nfho);
}
init раздел:
mutex_init(&queue_critical_section);
mutex_init(&ioctl_critical_section);
Я определил статическую переменную:
static struct mutex queue_critical_section;
как нет кода между lock
и unlock
Я не ожидаю ошибки, но когда я запускаю этот модуль, ядро выдает следующие ошибки:
Ошибок Обновлена:
root@khajavi: # pppd call 80-2
[ 519.722190] PPP generic driver version 2.4.2
root@khajavi:# [ 519.917390] BUG: scheduling while atomic: swapper/0/0/0x10000100
[ 519.940933] Modules linked in: ppp_async crc_ccitt ppp_generic slhc netfilter_mutex(P) nls_utf8 isofs udf crc_itu_t bnep rfcomm bluetooth rfkill vboxsf(O) vboxvideo(O) drm]
[ 520.022203] CPU 0
[ 520.023270] Modules linked in: ppp_async crc_ccitt ppp_generic slhc netfilter_mutex(P) nls_utf8 isofs udf crc_itu_t bnep rfcomm bluetooth rfkill vboxsf(O) vboxvideo(O) drm]
[ 520.087002]
[ 520.088001] Pid: 0, comm: swapper/0 Tainted: P O 3.2.51 #3 innotek GmbH VirtualBox/VirtualBox
[ 520.130047] RIP: 0010:[<ffffffff8102d17d>] [<ffffffff8102d17d>] native_safe_halt+0x6/0x8
[ 520.135010] RSP: 0018:ffffffff81601ee8 EFLAGS: 00000246
[ 520.140999] RAX: 0000000000000000 RBX: ffffffff810a4cfa RCX: ffffffffffffffbe
[ 520.145972] RDX: 0000000000000001 RSI: 0000000000000000 RDI: 0000000000000001
[ 520.158759] RBP: ffffffff81601ee8 R08: 0000000000000000 R09: 0000000000000000
[ 520.163392] R10: 0000000000000400 R11: ffff88003fc13680 R12: 0000000000014040
[ 520.172784] R13: ffff88003fc14040 R14: ffffffff81067fd2 R15: ffffffff81601e58
[ 520.177767] FS: 0000000000000000(0000) GS:ffff88003fc00000(0000) knlGS:0000000000000000
[ 520.188208] CS: 0010 DS: 0000 ES: 0000 CR0: 000000008005003b
[ 520.196486] CR2: 00007fff961a3f40 CR3: 0000000001605000 CR4: 00000000000006f0
[ 520.201437] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
[ 520.212332] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400
[ 520.217155] Process swapper/0 (pid: 0, threadinfo ffffffff81600000, task ffffffff8160d020)
[ 520.228706] Stack:
[ 520.234394] ffffffff81601ef8
Message from syslogd@khajavi at Dec 22 17:45:46 ...
kernel:[ 520.228706] Stack:
ffffffff81014857 ffffffff81601f28 ffffffff8100d2a3
[ 520.255069] ffffffffffffffff 0d64eb669fae50fc ffffffff81601f28 0000000000000000
[ 520.269238] ffffffff81601f38 ffffffff81358c39 ffffffff81601f78 ffffffff816acb8a
[ 520.274148] Call Trace:
[ 520.275573] [<ffffffff81014857>] default_idle+0x49/0x81
[ 520.278985] [<ffffffff8100d2a3>] cpu_idle+0xbc/0xcf
[ 520.291491] [<ffffffff81358c39>] rest_init+0x6d/0x6f
вот полный syslog ошибке: http://paste.ubuntu.com/6617614/
4 ответов
Это крючок изнутри ядра. Спящий режим, блокировка семафора (pend) или любые операции блокировки не допускаются; вы блокируете ядро!
Если вы хотите объект синхронизации, вы можете попробовать использовать блокировки вращения.
As этот ответ на аналогичный вопрос заявлено, mutex_lock запустит планировщик; но ядро будет озадачено, потому что вы пытаетесь запланировать другую задачу, пока вы находитесь в критическом разделе (сам обратный вызов большой критическая секция.)
проверьте этот поток понимание контекста выполнения крючков netfilter по аналогичному делу.
хотя mutex_lock()
вероятно, не будет спать в этом случае, он все еще может сон.
Поскольку это вызывается в атомарном контексте, возникает ошибка.
в частности, это вызвано mutex_lock()
вызов might_sleep()
, что в свою очередь может вызвать __schedule()
Если вам нужно синхронизировать, используйте соответствующие вызовы, например. прядильные замки и rcu.
вы видите это сообщение, если ваша задача запланирована, когда она содержит синхро, скорее всего, spinlock. Когда вы блокируете spinlock, он увеличивает preempt_count; когда планировщик ненавидит ситуацию планирования с увеличенным preempt_count, он распечатывает именно это сообщение:
/* * Планирование печати при атомной ошибке:
*/
static noinline void __schedule_bug(struct task_struct *prev)
{
if (oops_in_progress)
return;
printk(KERN_ERR "BUG: scheduling while atomic: %s/%d/0x%08x\n",
prev->comm, prev->pid, preempt_count());
debug_show_held_locks(prev);
print_modules();
if (irqs_disabled())
print_irqtrace_events(prev);
dump_stack();
}
Итак, вероятно, вы держите замок или вы должны разблокировать какой-то замок.
PS. Из описания мьютекса в Linux документация:
семантика'struct mutex' четко определена и применяется, если CONFIG_DEBUG_MUTEXES включен. Семафоры, с другой стороны, имеют
практически нет отладочного кода или инструментария. Подсистема мьютекса
проверяет и применяет следующие правила:
- только одна задача может одновременно удерживать мьютекс * - только владелец может разблокировать мьютекс * - несколько разблокировок не разрешено
- рекурсивная блокировка не допускаются * - мьютекс-объект должен быть инициализирован с помощью API * - мьютекс-объект не должен быть инициализирован через memset или копирование * - задача не может выйти с удержанием мьютекса * - области памяти, в которых находятся удерживаемые блокировки, не должны освобождаться * - удерживаться мьютексы не должны быть повторно инициализированы * - мьютексы не могут использоваться в аппаратного или программного прерывания * контексты, такие как tasklets и таймеры!--20-->
в вашем дизайне один и тот же мьютекс может использоваться несколько раз одновременно:
- вызов 1 - > Вы код - > mutex_lock
- планировщик прерывает свой код.
- вызов 2 - > Ваш код - > mutex_lock (уже заблокирован) - > ошибка
удачи.
это явно проблема контекста выполнения. Чтобы использовать соответствующую блокировку в коде ядра, необходимо знать, в каком контексте выполнения (hard_irq
| bottom_half
| process_context
) код вызывается.
mutex_lock
| mutex_unlock
предназначены исключительно для защиты кода process_context.
по данным http://www.gossamer-threads.com/lists/iptables/devel/56853
обсуждение, функции hook_func
можно назвать sot_irq
или process_context
.
Так, вам нужно использовать механизм блокировки, подходящий для защиты между этими двумя контекстами.
я предлагаю вам пройти через руководство по блокировке ядра (https://www.kernel.org/pub/linux/kernel/people/rusty/kernel-locking/). В руководстве также объясняются особенности, когда система SMP (очень распространенная) и preemption включена.
для быстрого теста вы можете использовать spin_lock_irqsave
замок в вашей hook_func
. spin_lock_irqsave
всегда безопасно, он отключает прерывания на текущем процессоре и spinlock гарантирует атомную работу на системе SMP.
теперь, слово о катастрофе:
mutex_lock
| mutex_unlock
может использоваться только в коде process_context. Когда ваш hook_func
вызывается из soft_irq
, mutex_lock
причины текущего процесса и, в свою очередь, вызывает планировщик. Спящий код ядра не допускается в атомарном контексте (здесь это soft_irq
).