Необъяснимые потери на маршрутизаторе

Здравствуйте всем!

Имеется vpn сервер, он же маршрутизатор между локальной и внешней сеткой, на нем по мимо pptp на нем бегает считалка трафика (2 шт: ipcad, ipt_NETFLOW) и bind (named). Информация по хардвару/софтвару тут, суть проблемы: теряются пакеты проходящие через маршрутизатор, немного, но неприятно. При проверке обычным пингом (размер пакета на результат не влияет) нормальный результат результат такой

1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=143 ttl=254 time=1.12 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=144 ttl=254 time=1.33 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=145 ttl=254 time=1.07 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=146 ttl=254 time=1.25 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=147 ttl=254 time=1.13 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=148 ttl=254 time=1.37 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=149 ttl=254 time=1.11 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=150 ttl=254 time=1.14 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=151 ttl=254 time=1.10 ms

но если продолжать пинг, то где то раз в 10 секунд проскакивает такая шняга

1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=150 ttl=254 time=1.14 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=151 ttl=254 time=1.10 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=152 ttl=254 time=1.22 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=153 ttl=254 time=1.12 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=154 ttl=254 time=252 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=155 ttl=254 time=233 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=173 ttl=254 time=21.6 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=174 ttl=254 time=19.8 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=175 ttl=254 time=251 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=176 ttl=254 time=239 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=177 ttl=254 time=219 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=178 ttl=254 time=210 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=179 ttl=254 time=189 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=192 ttl=254 time=10.2 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=193 ttl=254 time=5.83 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=194 ttl=254 time=1.15 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=195 ttl=254 time=1.28 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=196 ttl=254 time=1.12 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=197 ttl=254 time=1.07 ms

И пакеты теряются... При этом проблеме подвержен только проходящий трафик, на исходящем/входящем в сам сервер никаких проблем нет, в логи ничего криминального не падает, dmesg чистый, пакеты в числе дропнутых не числятся. Так же хочу добавить, что без разницы, из какого в какой интерфейс идет трафик (хоть через ppp интерфейс), проблема всегда одинаковая. Есть у кого какие соображения?

Нашел нечто

Нашел нечто неприятное...

~# dmesg | tail
.....
netflow_send_pdu[0]: sendmsg error -11: data loss 30 pkt, 7425 bytes: increase sndbuf!
netflow_send_pdu[0]: sendmsg error -11: data loss 47 pkt, 19006 bytes: increase sndbuf!
netflow_send_pdu[0]: sendmsg error -11: data loss 33 pkt, 6190 bytes: increase sndbuf!

Быть может это имеет отношение к проблеме? Погуглю, что это может значить...

Вам понятным языком написали,

Вам понятным языком написали, мол увеличьте буфер. Делать через sysctl или при загрузке модуля в параметрах. Вы вообще отслеживаете что у вас работает? Не удивлюсь, что у вас и net.ipv4.netfilter.ip_conntrack_max расширения требует.

Из скромной документации к ipt_netflow:

sndbuf=number
     - size of output socket buffer in bytes. Recommend you to put
       higher value if you experience netflow packet drops (can be
       seen in statistics as 'sock: fail' number.)
       Default value is system default.

Нащяльника, мая сервира паставиль, фрибизьдя инсталя сделаль, апачи сабраль, пыхапе патключиль, сапускаю, а ано - ажамбех пашамбе эшельбе шайтанама!

Большое спасибо

Большое спасибо. С этой проблемой разобрался,

net.netflow.sndbuf

но речь идет не о ней. Я просто предположил, что это может иметь отношение к проблеме. Может или не может? В этом был мой вопрос. К сожалению опытным путем выяснил, что не имеет... :( Пробовал эксперименты с tcp сокетом - безрезультатно. Дергались ключи

net.core.rmem_max
net.core.wmem_max
net.core.rmem_default
net.core.wmem_default
net.ipv4.tcp_no_metrics_save
net.ipv4.tcp_rmem
net.ipv4.tcp_wmem

может что нибудь еще можно попробовать?

P.S. Благодарю, что обратили мое внимание на net.ipv4.netfilter.ip_conntrack_max но увы, проблема не в этом. Ключ не требует увеличения, ошибки которые могли бы быть с этим связаны не проявляются и как я уже писал в начале теряющийся пакет не попадает в число дропнутых.

Цитата: Я просто предположил,

Цитата:
Я просто предположил, что это может иметь отношение к проблеме. Может или не может? В этом был мой вопрос.

Нет, это не имеет отношения напрямую, но это симптом того, что вы не знаете и порядок цифр проходящих через сервер пакетов. Во втором фрагменте, что вы опубликовали, явно видны потери пакетов.

1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=155 ttl=254 time=233 ms
1008 bytes from ххх.ххх.ххх.ххх: icmp_seq=173 ttl=254 time=21.6 ms

В /var/log/messages относительно kernel что есть? Неужели ничего?

Нащяльника, мая сервира паставиль, фрибизьдя инсталя сделаль, апачи сабраль, пыхапе патключиль, сапускаю, а ано - ажамбех пашамбе эшельбе шайтанама!

Абсолютно ничего, в том то

Абсолютно ничего, в том то все и дело... Может быть пакеты отбрасываются на аппаратном уровне? Это можно чем нибудь отследить? Еще есть предположение, учитывая периодичность происходящего, быть может в системе происходит какое то действие, прерывающее работу сети?

Настройки просмотра комментариев

Выберите нужный метод показа комментариев и нажмите "Сохранить установки".