Speaker Rabbit

abbra


CIFS: curious information funneled sometimes


Previous Entry Share Next Entry
IBM - родина слонов :-)
Speaker Rabbit
abbra
Я обычно мало пишу о работе, потому что это не очень интересно рассказывать, да и не могу от имени компании выступать. Зато могут заказчики рассказывать. :-) Вот таиландская компания, которая занимается производством мультфильмов, выложила ролик о том, как для их нового мультфильма было важно создание единой системы хранения: http://www.youtube.com/v/4dvqCjpy7OA



Внутри у нее неонка, уже упоминавшаяся Scale-out File System (SoFS), внутри которой есть еще две неонки: Samba 3 и CTDB 1.0. И вот без них слонов не было бы. :-)
Tags: , , , ,

  • 1
Ещё одно доказательство того, что аниматоры везде, как сельди в бочке сидят. И ещё того, что ателье перезаписи самое любимое место для записи интервью :)
А вот с железом в общем и со storage в частности у нас намного проще всё...

А какой у тебя workflow с доступностью данных аниматорам одновременно?

У меня сейчас уже никакого. Я уволился с "Мельницы", уже довольно давно :)
А так... На "Мельнице" довольно много разных отделов. У каждого свой workflow, как правило со своим серваком. Полнометражные фильмы вообще делаются на кальке :) В моём отделе (визуальные эффекты) тоже был выделеный сервак на SuSe. Правда Сусь там стоит лишь потому, что мы сами её ставили и конфигурили, это вдвойне забавно, если учесть, что в отделе не было ни одного программера (мы все художники) :)
Первый сервер "Мельницы" мы собирали сами, это был двойной PIII на Serverworks + самосборный SCSI-RAID, который болтался на Mylex. RAID был меньше терабайта. Там были просто отдельные выделеные ресурсы для разных групп юзеров. Во всяком случае "Карлика Носа" и "Алёшу Поповича" на этом сделали :)

У Кантаны задача была дорабатывать персонажей и сцены одновременно всем, не могут сотня человек работать в конвеере с обязательным ожиданием соседа, никаких денег тогда на проекты не хватит.

100 рабочих станций, каждая из которых хочет приличную полосу от сервера для рендеринга своих кусочков из общей базы, быстро "нагнут" любой одиночный сервер. Поэтому там сделана кластерная система, число узлов которой просто увеличивается при появлении "затыков" в сети и наращивается количество дисков/полок при появлении "затыков" в дисках. Для рабочих станций это хранилище выглядит как один ресурс CIFS на одном сервере, а дальше все наш софт очень хитро раскидывает и обеспечивает полную утилизацию кластерных узлов.

Все блокировки файлов и прочее, требуемое виндовыми аниматорскими софтинками, поддерживается между всеми узлами кластера и как следствие, всеми клиентскими машинками.

На самом деле, например, аниматору жирная полоса не нужна. Он, как правило, ничего не рендерит. А вот texture artist-ам и всяким там lighting TD очень даже. Про render farm я промолчу :) Да, кластеризация это здорово, можно разруливать нагрузку, масштабировать...
Но это всё "у них". У нас топология сети была такая, что даже чёртов "властелин колец" не знал что и куда воткнуто. Когда между отделами на двух этажах возросла нагрузка, пакеты вообще перестали ходить и я начал вычислять что там намутили, то выяснил, что между нами вообще "сотка" и пара невменяемых ублюдков типа "D-Link". "Это было бы смешно, если бы не было так грустно". Но по-другому, наверное, пока никак. Кино это не добыча нефти, особенно детское...

Да я знаю про проблемы наших киношников, да. Эх...

Жаль, что прошлым летом, когда ты в Питере был, я был на съёмках. А то бы сводил на экскурсию на "Мельницу". Думаю, что тебе было бы любопытно.

ЗЫ OFF На фотке в последней КТ хорош :)))))

  • 1
?

Log in

No account? Create an account