Страниц: [1] 2  Все   Вниз
  Печать  
Автор Тема: Семантическая сеть  (Прочитано 32404 раз)
0 Пользователей и 1 Гость смотрят эту тему.
ysh5

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline

Сообщений: 32
Регистрация: 2009-04-20

Просмотр профиля

« : 15 Май 2009, 14:32:07 »

Несколько лет назад прочитал статью «Семантическая Сеть» Тима Бернерс-Ли, Джеймса Хендлер и Ора Лассила (перевод 2004 г., оригинал: The Semantic Web. By Tim Berners-Lee, James Hendler and Ora Lassila. Scientific American, May 17, 2001). В этой статье авторы затронули, на мой взгляд, глобальную проблему преобразования существующей сети WWW в Семантическую сеть с принципиально новой формой представления содержания (контента).
Сейчас значительная часть содержания Сети предназначена для чтения человеком, а не для осмысленного манипулирования им с помощью компьютерных программ. Компьютер способен умело разобраться в разметке веб-страницы и произвести рутинную её обработку, но, вообще говоря, у компьютера нет надёжного способа обрабатывать семантику документа.
Цель Семантической Сети — создать язык, на котором можно будет описывать как данные, так и правила рассуждений об этих данных, так чтобы он позволял правила вывода, существующие в какой-либо одной системе представления знаний, передавать по Сети другим подобным системам.
К настоящему времени созданы следующие важные технологии для построения Семантической Сети:
•   Расширяемый Язык Разметки (eXtensible Markup Language, XML);
•   Система Описания Ресурсов (Resource Description Framework, RDF);
•   Язык Сетевых Онтологий (Web Ontology Language, OWL).
Ещё одним базовым компонентом Семантической Сети является совокупность информации, которую специалисты в области ИТ именуют онтологией. В этом случае онтология — это документ или файл, формально задающий отношения между терминами. Наиболее типичными видами онтологий в Сети являются таксономия и набор правил вывода.
По мнению авторов в полную силу Семантическая Сеть будет реализована тогда, когда люди создадут множество программ-агентов, которые, знакомясь с содержимым Сети из различных источников, обрабатывают полученную информацию и обмениваются результатами с другими программами. Эффективность таких программных агентов будет расти экспоненциально по мере увеличения количества доступного машинно-воспринимаемого веб-контента и автоматизированных сервисов (включая других агентов).
Важным аспектом функционирования агентов будет возможность обмена «доказательствами», записанными в унифицированном языке Семантической Сети (языке, на котором можно записывать логические рассуждения, проведенные с использованием содержащейся в онтологиях информации и правил вывода).
В настоящее время уже существует множество автоматизированных веб-сервисов безо всякой семантики, однако другим программам, таким как агенты, нет никакого способа разыскать в сети подобную программу, выполняющую ту или иную функцию. Этот процесс, называемый обнаружением сервисов [service discovery], станет возможным лишь после того, как появится единый язык, позволяющий описывать сервисы, с тем,  чтобы агенты могли «понимать», что позволяет делать данный сервис и каким образом им пользоваться. Сервисы и агенты могут рекламировать выполняемые ими функции, например, занося подобные описания в справочники, подобные Жёлтым Страницам. На момент перевода этой статьи (2004 г.) подобный язык описания сервисов — Язык Онтологии Сетевых Сервисов (Web Services Ontology Language, OWL-S) — уже находился в стадии разработки WWW-Консорциумом (W3C).
Хотелось бы обменяться информацией о продвижении описанного проекта «Семантическая сеть» за годы, прошедшие с момента написания упомянутой статьи.
Записан
rfq

Offline Offline

Сообщений: 1
Регистрация: 2009-06-04

Просмотр профиля Email

« Ответ #1 : 04 Июнь 2009, 19:37:19 »

Я думаю этот подход рано или поздно провалится. Проблема в том, что, желая обрабатывать компьютером
информармацию, представленную на естественном языке, в качестве внутреннего представления выбрана форма (RDF,
OWL), приближенная к текущему пониманию работы компьютеров (языки программирования, базы данных) и,
соответственно, удаленная от внутренней логики естественных языков. В результате дистанция между естественным языком и выбранным представлением оказывается слишком большой. Самое плохое, что эту дистанцию предполагается преодолевать, вручную составляя описания ресурсов. Это задача неподъемная.
Необходимо стремиться к тому, чтобы внутренне представление формировалось из представления на естественном языке полуавтоматически, с минимальным привлечением эксперта-человека, и закреплением полученных от эксперта знаний. Идеальный образец - ребенок, осваивающий язык при помощи взрослых.
Записан
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #2 : 04 Июнь 2009, 22:19:46 »

Вы совершенно правильно обратили внимание на две серьезных проблем построения семантических сетей. На мой взгляд они очень слабо или вообще не связаны друг сдругом.
Проблема в том, что, желая обрабатывать компьютером
информармацию, представленную на естественном языке, в качестве внутреннего представления выбрана форма (RDF,
OWL), приближенная к текущему пониманию работы компьютеров (языки программирования, базы данных) и,
соответственно, удаленная от внутренней логики естественных языков. В результате дистанция между естественным языком и выбранным представлением оказывается слишком большой.
Вы считаете, что модель семантической среды (в данном случае RDF) не совершенна. Возможно, что для сложного случая это так, но многие смыслы ЕЯ вполне можно передать тройками RDF (объект - предикат - субъект). Классический пример: "Мама мыла раму". Хотелось бы понять чего этой модели не хватает: n-арных предикатов, предикатов высоких порядков, нечеткой логики или чего-то еще? Какие все-таки конструкции ЕЯ принципиально не выразимы тройками RDF? Может быть Вам известны примеры из практики инженерии знаний таких случаев. Было бы интересно их обсудить.
Цитировать
Самое плохое, что эту дистанцию предполагается преодолевать, вручную составляя описания ресурсов. Это задача неподъемная.
Необходимо стремиться к тому, чтобы внутренне представление формировалось из представления на естественном языке полуавтоматически, с минимальным привлечением эксперта-человека, и закреплением полученных от эксперта знаний. Идеальный образец - ребенок, осваивающий язык при помощи взрослых.
Это уже проблема способов формирования семантической сети. Безусловно, здесь Вы правы: процесс извлечения знаний из WEB должен быть максимально автоматизирован. Никто не будет разрабатывать простенький сайтик, который можно заказать условно за 50 $, с привлечением технологий и специалистов по Semantic WEB, усложняя проект на несколько порядков. У Тима Бернса Ли я не нашел ответа на эти простые вопросы, очевидно он считает, что выигрыш от семантического веба окупит все затраты на разработку сайтов нового поколения. Но, по-моему, никто не спешит серьезно вкладываться в эти технологии. Какие-то составные части технологии (например RSS) успешно внедряется, но сами по себе они не сделают Интернет базой знаний, а могут служить лишь удобными сервисами для пользователей.
В нашей компании мы использовали технологии Semantic WEB для построения корпоративных Интранет-систем. Эта задача безусловно проще, хотя и здесь бывают трудности, так как информационные ресурсы большой организации походят скорее на разнородные сайты в Интернете, чем на хорошо спроектированную базу данных со строгой схемой. Поэтому мы активно занимались и занимаемся разработкой технологии извлечения данных из разнородных источников (различных текстов и Интернет-сайтов), с использованием методов компьютерного обучения. При этом модель представления знаний RDF / OWL нас вполне устраивала для всех практических задач.
« Последнее редактирование: 04 Июнь 2009, 22:23:22 от dmitryb » Записан

Лишь истина побеждает!
skv

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Сообщений: 164
Регистрация: 2009-04-17

Просмотр профиля

« Ответ #3 : 05 Июнь 2009, 11:14:37 »

В одной из презентаций, посвященных Web 3.0, натолкнулся на утверждение, смысл которого в следующем.
На первый взгляд, человек по своей натуре ленив и себялюбив, поэтому, казалось бы, вряд ли он станет вручную обучать чему-то комьютер. Однако если бы это было действительно так, вряд ли бы возник Web 2.0.
Оригинал можно посмотреть где-то здесь Web 3.0 Concepts Explained in Plain English одном из прикрепленных презентационных роликов.
Суть же сказанного заключается в том, что в настоящий момент существует масса контента, созданного сообществом (Википедия, Закладки, Блоги, RSS ленты). Этого контента не было бы, если бы людям было лень заниматься его генерацией, поэтому, на мой взгляд, при наличии удобного инструментария те же самые блоггеры вполне могут писать статьи, снабжая их соответствующими тэгами и устанавливая необходимые семантические отношения.
Более того, если предоставить доступ к этому инструменту представителям сообщества, то можно рассчитывать, что необходимые тэги будет расставлять не сам автор, а пользователи, читающие его статьи.
Записан
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #4 : 05 Июнь 2009, 12:01:26 »

В одной из презентаций, посвященных Web 3.0, натолкнулся на утверждение, смысл которого в следующем.
На первый взгляд, человек по своей натуре ленив и себялюбив, поэтому, казалось бы, вряд ли он станет вручную обучать чему-то комьютер. Однако если бы это было действительно так, вряд ли бы возник Web 2.0.
Разговоры о Web 3.0 при отсутствии реально работающего  Web 2.0 лично мне напоминают статьи о поколениях интеллектуальных компьютеров: тогда тоже утверждалось, что вот-вот появятся компьютеры 4 и 5 поколений, а уж потом 6 и 7 и это будет нечто! Смысл концепции выразить нельзя, но завораживает размахом! Вкладывайте денежки господа и все будет прекрасно! Не надо задумываться, что Пролог слишком убог, чтобы выразить на нем какие-то сложные знания. Все это преодолимо каким-то чудесным образом с ростом производительности ЭВМ.
Мне эти идеи хорошо запомнились.

Цитировать
Суть же сказанного заключается в том, что в настоящий момент существует масса контента, созданного сообществом (Википедия, Закладки, Блоги, RSS ленты). Этого контента не было бы, если бы людям было лень заниматься его генерацией, поэтому, на мой взгляд, при наличии удобного инструментария те же самые блоггеры вполне могут писать статьи, снабжая их соответствующими тэгами и устанавливая необходимые семантические отношения.
Более того, если предоставить доступ к этому инструменту представителям сообщества, то можно рассчитывать, что необходимые тэги будет расставлять не сам автор, а пользователи, читающие его статьи.
А какие именно правила расстановок и типы этих тэгов? Существуют ли они объективно? Почему-то считается, что объективно существуют какие-то фундаментальные справочники, словари, фундаментальные принципы разметки текста, онтологии (в философском смысле этого слова). Но кто это доказал? По-моему, все доказательство основано на аналогии с религиозным мышлением человека, когда существуют некоторые посланные Богом скрижали, на которых содержится высшая мудрость. Но разве уместна такая аналогия для прикладных случаев? По-моему вступая в Интернет-сообщества пользователи руководствуются эмоциями и своими сиюминутными интересами, а не проблемой систематизации знаний. Читатели их сообщений поступают также. Что же при этом они должны размечать?! Свои эмоции? Завтра разметка может поменяться...
Поэтому, мне кажется самым важным является учет прагматики человеческого общения и создание соответствующих моделей.
Нельзя обойти и тот факт, что многие смыслы ЕЯ привязаны к конкретному языку и только самые простейшие смысловые конструкции от языков не зависят. Примером практического проявления этой проблемы является невозможность создания хорошего полилингвистического правового тезауруса. В лучшем случае это можно попробовать сделать в рамках одной правовой семьи (например, для английского права). Разработчики систем типа Вики-знаний и подобных словарей делают вид, что не знают о существовании этой проблемы...
Записан

Лишь истина побеждает!
skv

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Сообщений: 164
Регистрация: 2009-04-17

Просмотр профиля

« Ответ #5 : 05 Июнь 2009, 12:49:47 »

...при отсутствии реально работающего  Web 2.0...
Вчера реально работал, а сегодня перестал?

А какие именно правила расстановок и типы этих тэгов? Существуют ли они объективно?
Изначально была поднята иная проблема - "кто это все будет делать"? Я ответил на нее: "Это будут делать пользователи и авторы контента". Сейчас они это успешно делают (вот один из примеров http://delicious.com/), почему у них может возникнуть проблема в будущем?
По поводу стандартов. Скорее всего их будут диктовать поисковые машины (и другие наиболее востребованные сервисы), работающие в соответствии с концепцией Web 3.0. В этом случае, автор контента, заинтересованный в том, чтобы его материалы были доступны, будет подстраиваться под стандарты таких систем.
Сейчас имеет место полная аналогия в обычном вебе, когда веб-мастер, разрабатывая сайт, учитывает требования поисковых роботов в своей разметке.
« Последнее редактирование: 05 Июнь 2009, 15:03:24 от skv » Записан
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #6 : 05 Июнь 2009, 16:59:04 »

Я как-то привык различать лозунги и рекламные статьи от реально работающих технологий.
Вот цитата из википедии о WEB 2.0 (источник http://ru.wikipedia.org/wiki/Web_2.0):

"Веб 2.0 как фикция

Термин Веб 2.0 зачастую используются с целью рекламы как модное слово или для завышения реальной стоимости проекта и собственной значимости разработчиков в глазах клиентов. Также разные люди под этим термином понимают совсем разные вещи. В результате в среде профессионалов к этому термину относятся весьма скептически, так как трудно найти принципиальные отличия Веб 2.0 от обычных сайтов".

Я разделяю этот скепсис. Очень характерно, на мой взгляд, начало разговоров о WEB 3.0 : по-моему это попытка спрятать проблемы предложенной концепции за еще менее понятными и абстрактными понятиями. Опять вспоминаются поколения японских супер-ЭВМ, когда где-то на рубеже 4 - 5 поколения стало не понятно ни что разрабатывается, ни как это может быть разработано, то прорабатывались концепции машин 6 и 7 поколений с какими-то непонятными фантастическими возможностями.
Другое дело масса полезных технологий, которые связаны с направлением WEB 2.0 и активно внедряются. Однако я лично не нахожу в них каких-то новых интеллектуальных методов обработки информации или понимания текстов компьютерами. Их можно считать развитием сетевых технологий, совершенствованием пользовательского интерфейса ИС и т.п., что отражает развитие обычного WEB, а не радикальную смену парадигм.
Записан

Лишь истина побеждает!
skv

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Сообщений: 164
Регистрация: 2009-04-17

Просмотр профиля

« Ответ #7 : 05 Июнь 2009, 18:25:44 »

Я как-то привык различать лозунги и рекламные статьи от реально работающих технологий.
Википедия, Youtube, Одноклассники - типичные представитель сайтов поколения Web 2.0. Мне как-то сложно дискутировать об их нереальности, когда я реально ими пользуюсь.

... так как трудно найти принципиальные отличия Веб 2.0 от обычных сайтов.
Любой популярный термин можно исопльзовать в PR-целях. Термины "нейронная сеть" и "искусственный интеллект" тому подтверждение. Технологии, стоящие за этими терминами, менее полезными не становятся от того, что кто-то использует эти термины в качестве рекламного лозунга.

Однако я лично не нахожу в них каких-то новых интеллектуальных методов обработки информации или понимания текстов компьютерами.
А кто утверждает, что Web 2.0 - это технологии понимания текстов компьютерами? Даже в концепции Web 3.0 об этом мне пока ничего не попадалось.
Записан
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #8 : 05 Июнь 2009, 19:01:23 »


А кто утверждает, что Web 2.0 - это технологии понимания текстов компьютерами? Даже в концепции Web 3.0 об этом мне пока ничего не попадалось.

Вроде бы как раз это и является предметом обсуждения в данной теме. Лично я почему-то думал, что WEB 2.0 должен был реализовать многие элемены парадигмы Semantic WEB, но может быть опять имеет место опять какое-то терминологическое расхождение?
Попался перевод  статьи известных людей этого направления http://www.osp.ru/os/2007/05/4264970/ с "хорошим" названием "Освоение Web 3.0". У читателей должно сразу создаться впечатление, что наверное существует то, что можно "освоить" Улыбка!
Они ставят соответствие между WEB 3.0 и семантическим вебом (или это опять только терминологическая путаница и не нужно ждать новую концепцию WEB 4.0  Смеющийся ?).
Из конкретики только упоминание расширений RDF и язык запросов к триплетам SPARQL. Но можно ли считать, что триплетная модель знаний покрывает хотя бы минимум требований к представлению знаний в современном Интернете? Авторы конечно не задумываются о таких "мелочах", они мыслят глобальными категориями.
Не могу не процитировать следующие их абстрактные пассажи:
"По существу, мы имеем все основания рассматривать технологию Semantic Web как новый подход к интероперабельности: разработчики приложений могут отложить до времени выполнения определение семантики диалога между двумя информационными системами даже после того, как системы были развернуты. Используя механизмы рассуждения для доступа к подразумеваемой информации в рамках диалога, состоящего из явных утверждений, и позволяя системам динамически развивать свои способности, обзаводясь новыми онтологиями и данными для построения рассуждений, Semantic Web дает нам возможность строить неустаревающие системы, способные действовать правильно даже в неожиданных ситуациях. Этот подход особенно полезен, когда интероперабельность является жизненно важной, например, в компьютерной среде, состоящей из множества встроенных систем. Для подключения, скажем, вашего карманного устройства к динамически изменяющейся совокупности из десятков, если не сотен, других систем, часто вам неподконтрольных (и потенциально опасных), нужны совершенно новые подходы к обеспечению интероперабельности. Мы больше не можем ожидать априорной стандартизации взаимодействия с каждой из систем, фактически, мы не можем даже представить себе все возможные сценарии таких взаимодействий.

В долгосрочной перспективе, когда средства описания объектов Semantic Web станут достаточно зрелыми, мы сможем использовать их выразительную мощь для описания предметов реального мира. Согласно одной из точек зрения, физические объекты станут доступны в Web в том смысле, что мы сможем представить их с помощью метаданных. Точно так же, как применение семантических технологий к проблемам интероперабельности в вездесущих вычислительных средах, описание физических объектов расширит наши возможности за пределы современной Паутины."

По-моему в очередной раз все едут в Васюки на всегалактический васюкинский шахматный турнир Улыбка!
Записан

Лишь истина побеждает!
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #9 : 05 Июнь 2009, 19:14:11 »

По-моему не плохая статья по поводу семантического веба в российской Википедии http://ru.wikipedia.org/wiki/Семантическая_паутина
Записан

Лишь истина побеждает!
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #10 : 06 Июнь 2009, 19:49:49 »

Этого контента не было бы, если бы людям было лень заниматься его генерацией, поэтому, на мой взгляд, при наличии удобного инструментария те же самые блоггеры вполне могут писать статьи, снабжая их соответствующими тэгами и устанавливая необходимые семантические отношения.
Более того, если предоставить доступ к этому инструменту представителям сообщества, то можно рассчитывать, что необходимые тэги будет расставлять не сам автор, а пользователи, читающие его статьи.
Пример, когда поставщики контента не только не помогают, но и всячески мешают поиску информации разместил здесь: http://www.inteltec.ru/inteltec-forum/index.php/topic,50.0.html.
Записан

Лишь истина побеждает!
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #11 : 17 Март 2010, 21:43:04 »

В книге В.А. Филиппова «Информационные взаимодействия и WEB-сервисы» нашел такое определение различных «старших версий» WEB. Хочу привести здесь выдержку из этой работы.
«К 2010 году ожидается Web 3.0 – новое поколение онлайновых приложений, предоставляющих нужную функциональность по запросу. На нижнем уровне в платформу Web 3.0 входят программные интерфейсы систем конкретных поставщиков. Они интегрируются на втором уровне с помощью XML-технологий. На третьем, прикладном уровне такие стандартизованные услуги объединяются провайдерами конечных систем в целостные продукты. Причем в них могут входить сервисы не одного, а множества разных поставщиков. Они предоставляются в виде удобного пользовательского интерфейса (возможно, как AJAX-решение или автономный «толстый» клиент), который в платформе Web 3.0 считается уровнем 3,5.
Web 4.0 будет представлять собой развитие предыдущих платформ, но уже на более серьезном фундаменте. Скорее всего, им станет Семантическая сеть, в основу которой лягут предложения консорциума W3C, но не как структурированный набор данных со статическими описаниями их смысла, а в виде интегрированной среды, доступ к содержимому которой осуществляется через посредничество программных агентов. Они возьмут на себя  множество интеллектуальных функций по подбору нужных сведений , очистке от спама и выполнению всевозможных рутинных операций».
Это удивительно, но мое предположение, высказанное выше о переносе рассмотрения семантики на уровень Web 4.0, оказалось верным! Результатов особых нет, поэтому надо переносить решение задачи куда-то в будущее: авось она там как-то сама собой разрешиться! Как это похоже на развитие концепций интеллектуализации ЭВМ 5, 6 и 7 поколений.
Автор, цитированной здесь работы видит развитие Интернет-технологий в активном использовании сервисно-ориентированных архитектур, но вынужден признать, что существующие здесь стандарты и языки мало подходят для описания семантики работы web-сервисов. Возможно существуют проекты развития SOAP или языка WSDL, которые позволят выразить семантику данных и функций web-сервисов, которые могут в дальнейшем дать положительный эффект в направлении интеллектуализации глобальной сети и создания интеллектуальных агентов, но пока таких возможностей вроде бы нет.
Если у кого-то есть мысли на этот счет или ссылки на интересные статьи, то просьба высказаться.
Записан

Лишь истина побеждает!
knyazev

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline

Сообщений: 63
Регистрация: 2009-06-30

Просмотр профиля Email

« Ответ #12 : 20 Март 2010, 12:52:36 »

За внедрение технологий Semantic Web в повседневное использование в интернете, по сути, ответственны три компании - Google, Microsoft, Yahoo. Как только их поисковая выдача будет зависеть от степени описания ресурсов на основе SemanticWeb, сразу использование этих технологий пойдет в гору. Если нет описания страниц сайта на RDF\OWL - то пессимизация сайта в выдаче. И все сразу преодолеют лень по описыванию дополнительной информации. Иначе, сложно будет ждать какого-либо широкого внедрения.
Записан
dmitryb

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline


Кот ученый обыкновенный

Сообщений: 460
Регистрация: 2009-04-17
Возраст: 53

Просмотр профиля

« Ответ #13 : 22 Март 2010, 21:25:53 »

По-моему, здесь не все так просто. Некоторое время назад мне попалась статья с обзором выступлений на научной конференции по искусственному интеллекту. В обзоре отмечалось, что Тим Бернс Ли ратовал за широкое внедрение своего детища - "семантического Веба", но у него были оппоненты и в первую очередь Питер Норвиг. Не помню как точно называется его должность - что-то типа главного научного консультанта компании Google. Он говорил о том, что нужно совершенствовать поисковые технологии в том виде как они есть и не требовать от пользователей принудительно описывать семантику своих ресурсов. Очевидно, что его позиция отражает точку зрения компании (по крайней мере на тот момент). Возможно, что что-то поменялось за последнее время, но пока я об этом не слышал.
Записан

Лишь истина побеждает!
knyazev

НПЦ "ИНТЕЛТЕК ПЛЮС"

Offline Offline

Сообщений: 63
Регистрация: 2009-06-30

Просмотр профиля Email

« Ответ #14 : 24 Март 2010, 01:56:47 »

Google действительно делает шаги по поддержке семантической разметки. Даю ссылку на английский анонс http://googlewebmastercentral.blogspot.com/2009/05/introducing-rich-snippets.html
Описание того, что на данный момент поддерживает Google.
У Yahoo есть проекты по использованию Semantic Web в своиз сервисах, но там они не оп прямому назначению используются, помойму. (немудрено - jena наполовину проект Yahoo, наполовину HP) найду ссылку, скину.
Записан
Страниц: [1] 2  Все   Вверх
  Печать  
 
Перейти в: