На самом деле лично мне не известны никакие эксперименты в этой области. Есть эмпирический опыт, но в масштабах планеты он ничтожен по сравнению с годами мучений у виндузятников. Теоретически же я могу назвать следующие "узкие места" в традиционном дистре GNU/Linux:
1. Почти все бинарники лежат в
/usr/bin. У меня там
ls -l /usr/bin/ | wc -l
2553Соответственно каждый раз при запуске рограммы надо найти нужный файл в означенной директории. Впрочем, в современных файловых системах директории индексируются и поиск происходит очень быстро (особенно в reiserfs). Я слышал, что в ext2 директории всё ещё хранятся по старинке, так что на неё корень лучше не ставить.
2. То же самое для
/usr/lib. Файлов там не меньше, а при запуске одной программы требуется несколько либ и все надо найти по имени.
3. Парсинг конфирурационных файлов. Да-да, если их много и они находятся на диске в разных местах. Прочитать один файл в 100кб всегда быстрее, чем 100 по 1 кб. Даже на рейзере

Вдобавок ещё этот xml, который пихают везде подряд, требовательнее к процессору, чем ini.
4. загрузка ресурсов. Когда все иконки программы не вшиты в экзешник, а аккуратно разложены по png-файлам в
/usr/share - это хорошо. Но медленно. А уж растеризация из svg...
5. Работа фоновых индексаторов. Обычно на своей системе я не замечаю не то что фоновый updatedb, но и даже бэкап целого
~/ в tar.bz2. Однако полнотекстовые индексаторы всего подряд всё-таки могут притормозить систему. Главным образом за счёт интенсивной работы с диском (здесь планировщик иногда ведёт себя не очень хорошо).
Пожалуй больше ничего не могу вспомнить. И, главное:
это всё ерунда. linux через пять лет будет тормозить также как в первый день, а иногда даже меньше (см kde4). Все эти параметры (кроме 5го) меняются максимум в полтора раза за всё время пользования системой (включая обновления на следующую версию дистрибутива) и далеки от критических значений.