кстати, здесь все же крайне желательно использовать локальные переменные и так сказать "локальную" память, т.е. либо стек буферов свой делать и бегать по ним, либо постоянно выделять память (эта операция очень быстрая благодаря менеджеру памяти компилятора)
буффер будет отправлен немедленно в том же потоке, зачем постоянно перевыделять, если можно выделить один раз?
но зачем такое? под size выделено 4 байта -> максимум 2^16, столько можно выделить один раз и не задумываться.
куда по сети если не секрет?
1) Мы в таком случае выделяем больше памяти чем нужно. Как-то это не оптимально. А однажды окажется что мы выделяем меньше памяти чем нужно, и мы упадем. Плохо. Алгоритмы должны быть адаптивными.
2) У меня бот на C#, работает через перехват траффика. на некоторых серверах траффик зашифрован., а значит его нужно хватать через сплайсинг., но делается это на Delphi или C++, поэтому я хочу сделать коннектор и отправлять "чистый" траффик в бота.
1) Мы в таком случае выделяем больше памяти чем нужно. Как-то это не оптимально. А однажды окажется что мы выделяем меньше памяти чем нужно, и мы упадем. Плохо. Алгоритмы должны быть адаптивными.
спорить о выделении лишних 20-30 килобайт для запаса это даже не смешно
Кстати говоря, выделение динамической памяти не самая быстрая операция, её рекомендуют сторониться.
спорить о выделении лишних 20-30 килобайт для запаса это даже не смешно
Кстати говоря, выделение динамической памяти не самая быстрая операция, её рекомендуют сторониться.
сегодня я пишу софтину для 10 клиентов, а завтра для 10000. я хочу чтобы мой код нормально масштабировался. И я не хочу вылететь когда пакеты внезапно станут больше. И выделение памяти происходит буквально пару раз лишних, это не критично
alexov, можно изловчиться и сделать один буфер на один поток, передавая этот буфер текущему боту с которым поток работает.
в итоге если ядер скажем 4, то это всего-лишь 4 * 64K байт на буферы
буффер будет отправлен немедленно в том же потоке, зачем постоянно перевыделять, если можно выделить один раз?
ты перехватил функцию Send, тебе нужно в ней до 64к памяти, когда ты собираешься выделить эту память? внутри функции и сохранить ссылку на память в глобальной переменной? если так, то следующей вызов функции может идти из другого потока и причем параллельно с предыдущим, в итоге крах ла2, либо дисконнект
Цитата:
Сообщение от supernewbie
alexov, можно изловчиться и сделать один буфер на один поток, передавая этот буфер текущему боту с которым поток работает.
в итоге если ядер скажем 4, то это всего-лишь 4 * 64K байт на буферы
ты хочешь сказать, что если у меня одноядерный проц, то я не смогу запустить на нем, скажем, 100 потоков?
здесь 2 простых решения:
1) глобальный массив массивов (можно его динамическим сделать, тогда все будет кошерно) и использовать его по кругу (даже паттерн программирования такой есть)
2) выделять память каждый раз внутри функции Send; если память гарантированно освобождать после этого и посмотреть на работу менеджера памяти, то можно увидеть, что операция очень и очень быстрая (на 100 циклов выделений/освобождения потребуется пару микросекунд, а ла2 очень редко когда пропускается хотя бы 100 пакетов/секунду)
PS. второй вариант проще, т.к. в (1) все равно придется делать некоторую синхронизацию по работе с общим буфером
не может. клиент дергает этот метод только из главного потока.
я бы сказал, что "в основном" дергает из главного потока, не зря же у них внутри идет работа с критическими секциями, значит они что-то знают
PS. а если ты пишешь код для одного потока, то тупо делаешь глобальный статический массив и не паришься
Цитата:
а дергать его ботом не из главного даже самая стремная защита не позволит.
а я дергал и мне защиты позволяли, только я их хорошо просил
Цитата:
и вообще, как то вы все усложняете простые вещи
иногда такие усложнения так много волос на жопе берегут, что лучше лишний раз перебздеть
alexov, можно изловчиться и сделать один буфер на один поток, передавая этот буфер текущему боту с которым поток работает.
в итоге если ядер скажем 4, то это всего-лишь 4 * 64K байт на буферы
можно изловчиться и сделать 10-20 переменных во всей программе и переиспользовать их по мере освобождения) но это потребует такой нетривиальной логики которую ни один человек не осилит)
Ну а если серьезно - использовать на 4х ядерном процессоре только 4 потока, это хорошая идея, для этого и придумали асинхронное программирование. Я так и делаю. Но вот в чем загвоздка, при асинхронном программировании код превращается в последовательность из коллбэков, а порядком их исполнения рулит тредпул.
Так вот к чему это я. Если для каждого клиента создать полный контекст из данных которые ему нужны, включая буфер для сетевых данных, код получается простой и красивый, потому что нам не важно в каком порядке на самом деле исполняется код. Но как только мы заведем общий буфер для группы клиентов, сразу появляются ограничения на то как мы должны писать код, чтобы этот буфер не запороть. Не знаю как это понятнее объяснить, но я думаю что те кто уже пишет асинхронный код, должны понять.
ты хочешь сказать, что если у меня одноядерный проц, то я не смогу запустить на нем, скажем, 100 потоков?
сможешь, но зачем?) если внутри потока не используется блокирующих функций кроме ожидания когда все возможные на данный момент действия завершены, то поток будет максимально эффективно использовать ядро, конечно если так сделать не получится то можно и 100 и 1000 потоков сделать, но если прикинуть то на 10000 ботов вряд ли понадобится даже 1000 потоков, потому что это получается по 10 ботов на поток, что за неоптимальное использование там будет происходить?) вообще даже при неоптимальном коде можно использовать формулу типа {количество_ядер * коэффициент_неоптимальности} и запускать скажем по 10 потоков на ядро, чтобы система разобралась кто простаивает, а кто нет. в итоге 40 потоков и в них можно впихнуть теже 10000 ботов по 250 ботов на поток, а дальше уже дело оптимизации, сможешь ли ты написать тело обработки одного бота чтобы 250 ботов успевали обработаться за уделенное им время. но и да, если код оптимален то производить потоки более чем на 90% загружающих ядро в количестве большем, чем имеется ядер, нет смысла, потому как это только ухудшит производительность, плюс кстати у потоков же ещё стек выделяется + куча внутренних поточных штук, так что каждый поток это ещё блок памяти. в общем лучше писать оптимальный код, создавать минимум потоков, создавать один общий буфер для одного потока и отдавать одному потоку как можно больше ботов на обработку. но в реальности как получится так и будет
Цитата:
Сообщение от alexov
Но как только мы заведем общий буфер для группы клиентов, сразу появляются ограничения на то как мы должны писать код, чтобы этот буфер не запороть
идея в следующем (далее псевдокод):
Код:
переменные на каждый поток:
общий_сетевой_буфер = массив байт равный максимальному размеру пакета (65535 в нашем случае)
боты = список ботов для обработки
тело_потока:
для каждого бота в ботах потока делаем:
{
бот.установить_буфер(общий_сетевой_буфер);
// в этом моменте бот использует общий буфер потока
// для приема и отправки данных
бот.получить_сетевые_данные_используя_буфер();
бот.послать_данные_используя_буфер();
бот.аннулировать_буфер();
// в этом моменте у бота больше нет буфера
// в следующей итерации общий буфер перейдет к следующему боту
}
при такой архитектуре единственное что нужно держать в памяти экземпляра бота это переменные необходимые для воссоздания пакетов при записи их в буфер для отправки и буферизацию фрагментированных пакетов при приеме фрагметированных данных, но буфер для фрагментов можно сделать равным максимально возможной длине элемента пакета (скажем максимальная длина строки - 64 символа) в итоге буфер для фрагментов пакета - (64 * 2 + 2) байт
в общем что-то такое можно придумать)
__________________ Начало.
Последний раз редактировалось supernewbie, 02.04.2017 в 12:18.