>проблемы как таковой нет, тут речь об удобстве, отчет босу замучаюсь делать ((
>вот вы чем пользуетесь для обработки логов сквида? w3perl не пробовали? Ну, как бы, вам объясняют, что веб - штука гипертекстовая, и обращаясь к одной страничке, вы получаете кучу объектов, вовсе необязательно с одного сервера. Все эти объекты грузятся броузером по отдельности, и по отдельности оказываются в логах сквида. Это нормальное, естественное поведение всей системы, бороться с ним бессмысленно. Хотя и возможно.
Вы открываете по ссылке страничку. Броузер скачивает хтмл-документ (статический или динамический), парсит его, и все вложенные объекты последовательно выкачивает, после чего рендерит страницу, выводимую на экран. Все вложенные объекты при скачивании получают хттп-хедер реферера (адрес включающей страницы). Теоретически, если в лог сквида писать рефереры для всех объектов, то можно при разборе лога просто исключать все строки с непустым полем реферера. Но тогда можно прощелкать разнообразнейшие фото-файло-видеохостинги, объекты с которых скачиваются неявно, по ссылкам внутри страниц. При этом будет гораздо больше гемора с попытками объяснить начальству, куда девался канал при том, что корневых страниц набежало едва на 3-5% полосы.
Оно вам точно не надо.
Для парсинга логов сквида я пользую sarg, который выдает разнообразные отчеты, в т.ч. топ-100 юзеров-пожирателей канала, топ-100 сайтов-генераторов трафика и так далее. Всем моим клиентам этого вполне достаточно.