Компьютерра - Журнал «Компьютерра» № 36 от 3 октября 2006 года
Но будем справедливы, повышение количества dpi — не столько блажь маркетологов, сколько результат упорного труда эпсоновских технологов, пытающихся выжать максимум из ограниченных возможностей планшетников. В результате упорных исследований они пришли к выводу о необходимости оборудовать оптическую систему сканеров V700/V750 pro не только привычной по более ранним моделям системой On-Chip Microlens, но и полноценными объективами. Да-да, именно во множественном числе! Дело в том, что V700 имеет не одну ПЗС-матрицу, а целых две! Одна предназначена для сканирования прозрачных и непрозрачных оригиналов вплоть до формата А4 с разрешением 4800 dpi (обслуживается первым объективом), а вторая — для сканирования прозрачных оригиналов размером не более 15 см с разрешением уже в те самые 6400 dpi (второй объектив). Подобная двойная система объектив-матрица позволила значительно повысить не только разрешение сканов, но и четкость получаемого изображения, на что в основном и сетовали тестеры планшетных сканеров по всему миру (www.galerie-photo.com/test-scanner-epson-v700-versus4990.html, по-французски, но есть картинки и translate.ru); кстати, в упомянутом CanoScan 9950F используется только один объектив.
Детская неожиданностьВ процессе недавнего тестирования модели V700 я столкнулся с одной неожиданностью, которую нельзя не упомянуть. Связана она исключительно с программой Epson Scan (и драйверами сканера, разумеется) версии 2.8BR и 2.8eE, которые на данный момент выложены на Epson’овских сайтах. Данные версии при использовании функции ICE некорректно удаляют пыль с кадра (по предварительным данным причина этого в нарушении технологии проявки пленки в некоторых лабораториях), в результате чего конечное изображение может содержать множество неприятных артефактов. Гипотеза о неисправности самого сканера была отвергнута сразу, как только я воспользовался сторонней программой VueScan (версия 8.3.46), с ее помощью я получил с теми же настройками хорошие без всяких артефактов кадры. В итоге мы с сотрудниками компании Epson пришли к выводу о программных проблемах, результаты с примерами и комментариями уехали в Японию, а я искренне надеюсь, что новая версия драйверов должна решить все проблемы. Пока же я рекомендую пользоваться альтернативными программами для сканирования пыльных пленок.
С кем быть?Ну так что там с выбором сканера для оцифровки? Что выбирать-то?
Ответить на вопрос можно, только поняв, что именно и зачем вы собираетесь оцифровывать. Специализированные пленочные сканеры, даже любительские модели, в силу конструктивных особенностей (главное из которых — отсутствие стекла) и поныне позволяют получить более резкое изображение, нежели дает любой планшетник. Но и цены на них начинаются в районе 400—500 долларов (без функции удаления пыли) и улетают до небес, так что приобретать такой аппарат имеет смысл лишь тем, кто серьезно увлекается или зарабатывает фотосъемкой на 35-мм формат. Для оцифровки же семейных празднеств достаточно планшетного сканера со слайд-модулем. Например, Epson Perfection 3490 Photo с оптическим разрешением 3400 dpi отгружается со складов за умопомрачительные… три с небольшим тысячи рублей, бюджетный CanoScan 8400F подороже — от пяти до шести тысяч.
Но все так шоколадно лишь для узкого кадра 35-мм пленки. Если же вы имели неосторожность увлечься широкоформатной пленкой [А начав, практически невозможно остановиться!], то приобретение пленочного сканера соответствующего формата обегчит ваш кошелек на гораздо большую сумму — от 20 тысяч рублей. И тут на сцену выходят относительно недорогие планшетные сканеры, с аппетитом сканирующие широкоформатную пленку, — их можно купить за 12—16 тысяч рублей, к тому же c прилагающейся по умолчанию автоматической очисткой от мусора (Digital ICE). Ну а что касается оптического разрешения, то даже тех реальных двух с небольшим тысяч dpi, которые выдают на-гора лучшие представители слайд-планшетников, для широкого формата (и любительских 35 мм) хватит с избытком.
РЫНКИ: С прицелом на будущее: Умные баннеры сами определят интересы пользователей
Автор: Родион Насакин
Редкий человек обладает иммунитетом к рекламе. Она назойливо пытается завладеть вниманием в газетах, по радио, на телеэкране и в Интернете. При этом рекламодатели с удовольствием прекратили бы плодить негативные эмоции в свой адрес и ограничили продвижение своих продуктов/услуг лишь потенциальными потребителями, относящимися к транслируемым предложениям с заинтересованностью или, на худой конец, просто нейтрально. Однако осуществить это на практике совсем не просто. Вот и приходится ради одного покупателя дергать сотню-другую людей вне целевой группы. Да и эксплуатировать медианосители «вслепую» — удовольствие не из дешевых.
Позвольте уточнитьВне Сети у рекламодателей не так много возможностей для сегментирования аудитории. В случае с прессой выделение подходящей группы потребителей сводится к размещению рекламы в изданиях, распространяемых в конкретном регионе, где продается и продвигаемый товар. Это так называемый геотаргетинг. Еще можно руководствоваться тематикой прессы и худо-бедно отсекать нецелевую аудиторию, у представителей которой это объявление не вызовет энтузиазма в силу возраста, социального статуса, иных интересов и т. п. На радио и ТВ вышеперечисленные «фильтры» дополняются временным таргетингом, то есть выбором подходящего времени суток, когда большинство потенциальных покупателей находятся в пределах досягаемости.
Первые рекламные проекты в Интернете тоже не отличались обилием инструментария для выделения целевой аудитории. Пользователей без разбору пичкали (да и по сей день пичкают) баннерами, яркая раскраска которых уничтожает стилистическую выдержанность основной веб-страницы, а заодно портит впечатление и от сайта-носителя. Анимация и всплывающие окна также не способствовали улучшению настроения. Максимум, что баннерные сети могли предложить заказчикам поначалу, — это временной таргетинг и геотаргетинг с определением местонахождения по IP-адресу. На революцию в сфере рекламы это никак не тянуло, а по массовости аудитории Сеть в старые добрые времена значительно уступала классическим медиа.
Гораздо успешнее пошли дела у доткомов после появления контекстной рекламы. Возможность выискивать на веб-страницах ключевые слова и вставлять в текст соответствующее случаю объявление или ссылку дала баннерным сетям более мощные рычаги. По крайней мере, такой вариант был гораздо эффективнее, нежели демонстрация баннеров на произвольных страницах сайтов некой тематической группы. Но золотым дном контекстная реклама стала, конечно же, для поисковых систем, в которых вскоре стало трудно найти мало-мальски популярный запрос, не «забронированный» рекламодателями.
Заказчики постепенно пошли в индустрию онлайн-рекламы, оборот рынка рос как на дрожжах, а специалисты начали спешно искать, чем бы еще порадовать инвесторов. Вот тогда-то в соответствующих кругах и заговорили о поведенческом таргетинге как о новом этапе эволюции интернет-рекламы, которому суждено прийти на смену контекстным объявлениям. Действительно, перспективы в плане сегментирования аудитории были радужные. Если ориентация по ключевым словам позволяла выделить заинтересованную группу, то адепты нового подхода говорили уже об индивидуальной «подстройке» под конкретного пользователя.
Суть первых опытов соответствующих разработок сводилась к сбору (различными способами: иногда вполне безобидным анкетированием, а иногда и слежкой с помощью spyware) информации о пользователях и маршрутах их веб-перемещений. Данные сохранялись в базе файлов-профилей, анализировались и при появлении на сайте уже «отметившегося» посетителя система формировала под него индивидуальный рекламный блок. Порой предусматривались и более изощренные варианты действий, вплоть до выставления в онлайновых магазинах разных цен для каждого покупателя.
Правда, практические результаты не очень впечатляли, но разработчики уверенно сваливали все на сырость технологии и напоминали, что за поведенческим таргетингом будущее. Рекламодатели им поначалу верили, но постепенно перестали. Разорились первопроходцы из компании Engage, которые начали копить профили еще в 1999 году и к моменту банкротства собрали базу с десятками миллионов записей. Еще более символичным стало закрытие два года спустя подразделения Intelligent Targeting Service в компании Double Click, одного из основных подвижников идеи поведенческого таргетинга. Разумеется, главную роль в отказе от сервиса сыграл кризис доткомов, но этому решению способствовали и юридические сложности. Double Click, как и другие «экспериментаторы», постоянно критиковалась правозащитниками, усматривавшими в сборе профилей наглое и бесцеремонное посягательство на приватность пользователей. И, как показывают реалии сегодняшнего дня, эти обвинения нельзя назвать беспочвенными. «Обезличенность» таких данных вовсе не гарантирует пользователю анонимности, а то и безопасности при попадании информации в нежелательные руки. Потенциальная опасность таится даже в индивидуальных историях поисковых запросов, которые хранят на своих серверах все поисковые системы. Так, в начале лета сего года разразился скандал, главным фигурантом которого выступила корпорация AOL. 19 миллионов запросов, сделанных 650 тысячами пользователей поисковой службы доткома, оказались в открытом доступе. Разумеется, копии базы мгновенно распространились по Интернету, главным образом, через файлообменные сети.