<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://wiki-test.markoff.science/index.php?action=history&amp;feed=atom&amp;title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B</id>
	<title>6.2 Машина распознаёт образы - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://wiki-test.markoff.science/index.php?action=history&amp;feed=atom&amp;title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B"/>
	<link rel="alternate" type="text/html" href="https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;action=history"/>
	<updated>2026-05-12T03:25:17Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.45.1</generator>
	<entry>
		<id>https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=1193&amp;oldid=prev</id>
		<title>Andrey Fedichkin в 21:49, 8 мая 2025</title>
		<link rel="alternate" type="text/html" href="https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=1193&amp;oldid=prev"/>
		<updated>2025-05-08T21:49:20Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;ru&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Предыдущая версия&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Версия от 21:49, 8 мая 2025&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l26&quot;&gt;Строка 26:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Строка 26:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Для оценки прогресса в решении подобных задач специалисты в области ИИ обычно создают публичные стандартизованные наборы данных, которые позволяют оценивать точность работы различных моделей, а также точность выполнения задач людьми. Мы уже упоминали MNIST — один из подобных наборов, содержащий множество пиксельных образов рукописных цифр. Задача распознавания цифр из этого набора стала тривиальной на границе тысячелетий, поэтому сегодня для оценки прогресса в области распознавания изображений принято использовать более сложные наборы данных. Сегодня, благодаря усилиям сообщества, разработчикам моделей распознавания образов доступны сотни, если не тысячи наборов данных, содержащих изображения, аудио- и видеозаписи, тексты, различные мультимодальные данные (например, наборы изображений, снабжённых текстовыми описаниями, и т. п.)&amp;lt;ref&amp;gt;&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Вообще говоря, термин модальность (от лат. &amp;#039;&amp;#039;modus&amp;#039;&amp;#039; — способ) пришёл в информатику из психологии, в которой понятия «модальность раздражителя» [stimulus modality] и «сенсорная модальность» [sensory modality] используются для того, чтобы указать на восприятие раздражителя определённой сенсорной системой: визуальной (зрительной), аудиальной (слуховой) и так далее. Однако использование этого термина в области информатики приобрело весьма вольный характер. Например, нередко говорят о «текстовой модальности» [text modality], но ведь у человека отсутствуют специальные сенсоры для восприятия текста — мы воспринимаем текст опосредованно, например через зрительную или слуховую систему. Фактически в данном случае термин «модальность» смешивается со способом представления данных [data representation]. Кроме того, очевидно, что машины вовсе не обязаны иметь тот же набор сенсорных систем, что и люди. Увы, связанная с этим путаница в наши дни приобрела уже всеобщий масштаб, и фарш уже вряд ли получится прокрутить в обратном направлении. Но, быть может, ещё не поздно при необходимости использовать для различения смешавшихся понятий составные термины, например «сенсорная модальность» и «модальность представления» [representation modality].&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Portes Q., Carvalho J. M., Pinquier J., Lerasle F. (2021). Multimodal Neural Network for Sentiment Analysis in Embedded Systems // https://www.scitepress.org/Papers/2021/102247/102247.pdf&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Baltrušaitis T., Ahuja C., Morency L.-P. (2018). Multimodal Machine Learning: A Survey and Taxonomy // https://arxiv.org/abs/1705.09406&amp;lt;/ref&amp;gt; и так далее. Более того, регулярно проводятся соревнования по решению различных задач в области распознавания образов, в том числе онлайн — на таких сервисах, как Kaggle, Driven Data, CrowdANALYTIX и др. Причём благодаря появлению облачных платформ, предоставляющих доступ к высокопроизводительным тензорным процессорам (Google Colab, Amazon AWS или отечественный «Кристофари» от Сбербанка), участникам соревнований необязательно даже иметь в собственности дорогое оборудование для обучения моделей. Словом, по сравнению с 1990-ми гг. решительно изменились почти все элементы инфраструктуры, задействованные в сфере распознавания образов, и плоды этих изменений не заставили себя ждать.&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Для оценки прогресса в решении подобных задач специалисты в области ИИ обычно создают публичные стандартизованные наборы данных, которые позволяют оценивать точность работы различных моделей, а также точность выполнения задач людьми. Мы уже упоминали MNIST — один из подобных наборов, содержащий множество пиксельных образов рукописных цифр. Задача распознавания цифр из этого набора стала тривиальной на границе тысячелетий, поэтому сегодня для оценки прогресса в области распознавания изображений принято использовать более сложные наборы данных. Сегодня, благодаря усилиям сообщества, разработчикам моделей распознавания образов доступны сотни, если не тысячи наборов данных, содержащих изображения, аудио- и видеозаписи, тексты, различные мультимодальные данные (например, наборы изображений, снабжённых текстовыми описаниями, и т. п.)&amp;lt;ref&amp;gt;&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Вообще говоря, термин модальность (от лат. &amp;#039;&amp;#039;modus&amp;#039;&amp;#039; — способ) пришёл в информатику из психологии, в которой понятия «модальность раздражителя» [stimulus modality] и «сенсорная модальность» [sensory modality] используются для того, чтобы указать на восприятие раздражителя определённой сенсорной системой: визуальной (зрительной), аудиальной (слуховой) и так далее. Однако использование этого термина в области информатики приобрело весьма вольный характер. Например, нередко говорят о «текстовой модальности» [text modality], но ведь у человека отсутствуют специальные сенсоры для восприятия текста — мы воспринимаем текст опосредованно, например через зрительную или слуховую систему. Фактически в данном случае термин «модальность» смешивается со способом представления данных [data representation]. Кроме того, очевидно, что машины вовсе не обязаны иметь тот же набор сенсорных систем, что и люди. Увы, связанная с этим путаница в наши дни приобрела уже всеобщий масштаб, и фарш уже вряд ли получится прокрутить в обратном направлении. Но, быть может, ещё не поздно при необходимости использовать для различения смешавшихся понятий составные термины, например «сенсорная модальность» и «модальность представления» [representation modality].&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Portes Q., Carvalho J. M., Pinquier J., Lerasle F. (2021). Multimodal Neural Network for Sentiment Analysis in Embedded Systems // https://www.scitepress.org/Papers/2021/102247/102247.pdf&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Baltrušaitis T., Ahuja C., Morency L.-P. (2018). Multimodal Machine Learning: A Survey and Taxonomy // https://arxiv.org/abs/1705.09406&amp;lt;/ref&amp;gt; и так далее. Более того, регулярно проводятся соревнования по решению различных задач в области распознавания образов, в том числе онлайн — на таких сервисах, как Kaggle, Driven Data, CrowdANALYTIX и др. Причём благодаря появлению облачных платформ, предоставляющих доступ к высокопроизводительным тензорным процессорам (Google Colab, Amazon AWS или отечественный «Кристофари» от Сбербанка), участникам соревнований необязательно даже иметь в собственности дорогое оборудование для обучения моделей. Словом, по сравнению с 1990-ми гг. решительно изменились почти все элементы инфраструктуры, задействованные в сфере распознавания образов, и плоды этих изменений не заставили себя ждать.&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;references /&amp;gt;&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;lt;comments /&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;lt;comments /&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Andrey Fedichkin</name></author>
	</entry>
	<entry>
		<id>https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=973&amp;oldid=prev</id>
		<title>Andrey Fedichkin в 20:33, 8 мая 2025</title>
		<link rel="alternate" type="text/html" href="https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=973&amp;oldid=prev"/>
		<updated>2025-05-08T20:33:17Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;ru&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Предыдущая версия&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Версия от 20:33, 8 мая 2025&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l26&quot;&gt;Строка 26:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Строка 26:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Для оценки прогресса в решении подобных задач специалисты в области ИИ обычно создают публичные стандартизованные наборы данных, которые позволяют оценивать точность работы различных моделей, а также точность выполнения задач людьми. Мы уже упоминали MNIST — один из подобных наборов, содержащий множество пиксельных образов рукописных цифр. Задача распознавания цифр из этого набора стала тривиальной на границе тысячелетий, поэтому сегодня для оценки прогресса в области распознавания изображений принято использовать более сложные наборы данных. Сегодня, благодаря усилиям сообщества, разработчикам моделей распознавания образов доступны сотни, если не тысячи наборов данных, содержащих изображения, аудио- и видеозаписи, тексты, различные мультимодальные данные (например, наборы изображений, снабжённых текстовыми описаниями, и т. п.)&amp;lt;ref&amp;gt;&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Вообще говоря, термин модальность (от лат. &amp;#039;&amp;#039;modus&amp;#039;&amp;#039; — способ) пришёл в информатику из психологии, в которой понятия «модальность раздражителя» [stimulus modality] и «сенсорная модальность» [sensory modality] используются для того, чтобы указать на восприятие раздражителя определённой сенсорной системой: визуальной (зрительной), аудиальной (слуховой) и так далее. Однако использование этого термина в области информатики приобрело весьма вольный характер. Например, нередко говорят о «текстовой модальности» [text modality], но ведь у человека отсутствуют специальные сенсоры для восприятия текста — мы воспринимаем текст опосредованно, например через зрительную или слуховую систему. Фактически в данном случае термин «модальность» смешивается со способом представления данных [data representation]. Кроме того, очевидно, что машины вовсе не обязаны иметь тот же набор сенсорных систем, что и люди. Увы, связанная с этим путаница в наши дни приобрела уже всеобщий масштаб, и фарш уже вряд ли получится прокрутить в обратном направлении. Но, быть может, ещё не поздно при необходимости использовать для различения смешавшихся понятий составные термины, например «сенсорная модальность» и «модальность представления» [representation modality].&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Portes Q., Carvalho J. M., Pinquier J., Lerasle F. (2021). Multimodal Neural Network for Sentiment Analysis in Embedded Systems // https://www.scitepress.org/Papers/2021/102247/102247.pdf&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Baltrušaitis T., Ahuja C., Morency L.-P. (2018). Multimodal Machine Learning: A Survey and Taxonomy // https://arxiv.org/abs/1705.09406&amp;lt;/ref&amp;gt; и так далее. Более того, регулярно проводятся соревнования по решению различных задач в области распознавания образов, в том числе онлайн — на таких сервисах, как Kaggle, Driven Data, CrowdANALYTIX и др. Причём благодаря появлению облачных платформ, предоставляющих доступ к высокопроизводительным тензорным процессорам (Google Colab, Amazon AWS или отечественный «Кристофари» от Сбербанка), участникам соревнований необязательно даже иметь в собственности дорогое оборудование для обучения моделей. Словом, по сравнению с 1990-ми гг. решительно изменились почти все элементы инфраструктуры, задействованные в сфере распознавания образов, и плоды этих изменений не заставили себя ждать.&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Для оценки прогресса в решении подобных задач специалисты в области ИИ обычно создают публичные стандартизованные наборы данных, которые позволяют оценивать точность работы различных моделей, а также точность выполнения задач людьми. Мы уже упоминали MNIST — один из подобных наборов, содержащий множество пиксельных образов рукописных цифр. Задача распознавания цифр из этого набора стала тривиальной на границе тысячелетий, поэтому сегодня для оценки прогресса в области распознавания изображений принято использовать более сложные наборы данных. Сегодня, благодаря усилиям сообщества, разработчикам моделей распознавания образов доступны сотни, если не тысячи наборов данных, содержащих изображения, аудио- и видеозаписи, тексты, различные мультимодальные данные (например, наборы изображений, снабжённых текстовыми описаниями, и т. п.)&amp;lt;ref&amp;gt;&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Вообще говоря, термин модальность (от лат. &amp;#039;&amp;#039;modus&amp;#039;&amp;#039; — способ) пришёл в информатику из психологии, в которой понятия «модальность раздражителя» [stimulus modality] и «сенсорная модальность» [sensory modality] используются для того, чтобы указать на восприятие раздражителя определённой сенсорной системой: визуальной (зрительной), аудиальной (слуховой) и так далее. Однако использование этого термина в области информатики приобрело весьма вольный характер. Например, нередко говорят о «текстовой модальности» [text modality], но ведь у человека отсутствуют специальные сенсоры для восприятия текста — мы воспринимаем текст опосредованно, например через зрительную или слуховую систему. Фактически в данном случае термин «модальность» смешивается со способом представления данных [data representation]. Кроме того, очевидно, что машины вовсе не обязаны иметь тот же набор сенсорных систем, что и люди. Увы, связанная с этим путаница в наши дни приобрела уже всеобщий масштаб, и фарш уже вряд ли получится прокрутить в обратном направлении. Но, быть может, ещё не поздно при необходимости использовать для различения смешавшихся понятий составные термины, например «сенсорная модальность» и «модальность представления» [representation modality].&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Portes Q., Carvalho J. M., Pinquier J., Lerasle F. (2021). Multimodal Neural Network for Sentiment Analysis in Embedded Systems // https://www.scitepress.org/Papers/2021/102247/102247.pdf&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Baltrušaitis T., Ahuja C., Morency L.-P. (2018). Multimodal Machine Learning: A Survey and Taxonomy // https://arxiv.org/abs/1705.09406&amp;lt;/ref&amp;gt; и так далее. Более того, регулярно проводятся соревнования по решению различных задач в области распознавания образов, в том числе онлайн — на таких сервисах, как Kaggle, Driven Data, CrowdANALYTIX и др. Причём благодаря появлению облачных платформ, предоставляющих доступ к высокопроизводительным тензорным процессорам (Google Colab, Amazon AWS или отечественный «Кристофари» от Сбербанка), участникам соревнований необязательно даже иметь в собственности дорогое оборудование для обучения моделей. Словом, по сравнению с 1990-ми гг. решительно изменились почти все элементы инфраструктуры, задействованные в сфере распознавания образов, и плоды этих изменений не заставили себя ждать.&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;comments /&amp;gt;&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Andrey Fedichkin</name></author>
	</entry>
	<entry>
		<id>https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=603&amp;oldid=prev</id>
		<title>Andrey Fedichkin: Новая страница: «&lt;span id=&quot;машина-распознаёт-образы&quot;&gt;&lt;/span&gt;  &lt;blockquote&gt;Гляжу с обычным умиленьем  На ваши кроткие черты,  И сердце светлым вдохновеньем  Наполнил образ красоты.  Какой обмен несправедливый!  Вдруг получить издалека  Вам, юной, свежей и красивой,  Печальный образ стар...»</title>
		<link rel="alternate" type="text/html" href="https://wiki-test.markoff.science/index.php?title=6.2_%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D1%91%D1%82_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D1%8B&amp;diff=603&amp;oldid=prev"/>
		<updated>2025-04-06T11:10:15Z</updated>

		<summary type="html">&lt;p&gt;Новая страница: «&amp;lt;span id=&amp;quot;машина-распознаёт-образы&amp;quot;&amp;gt;&amp;lt;/span&amp;gt;  &amp;lt;blockquote&amp;gt;Гляжу с обычным умиленьем  На ваши кроткие черты,  И сердце светлым вдохновеньем  Наполнил образ красоты.  Какой обмен несправедливый!  Вдруг получить издалека  Вам, юной, свежей и красивой,  Печальный образ стар...»&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;span id=&amp;quot;машина-распознаёт-образы&amp;quot;&amp;gt;&amp;lt;/span&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;Гляжу с обычным умиленьем&lt;br /&gt;
&lt;br /&gt;
На ваши кроткие черты,&lt;br /&gt;
&lt;br /&gt;
И сердце светлым вдохновеньем&lt;br /&gt;
&lt;br /&gt;
Наполнил образ красоты.&lt;br /&gt;
&lt;br /&gt;
Какой обмен несправедливый!&lt;br /&gt;
&lt;br /&gt;
Вдруг получить издалека&lt;br /&gt;
&lt;br /&gt;
Вам, юной, свежей и красивой,&lt;br /&gt;
&lt;br /&gt;
Печальный образ старика!&lt;br /&gt;
&lt;br /&gt;
Афанасий Фет. &amp;#039;&amp;#039;Л. И. Офросимовой при посылке портрета&amp;#039;&amp;#039;&lt;br /&gt;
&amp;lt;/blockquote&amp;gt;&lt;br /&gt;
Распознавание образов [pattern recognition] — это отрасль ИИ, которая занимается автоматическим обнаружением закономерностей в данных и решением задач классификации и регрессии найденных закономерностей.&lt;br /&gt;
&lt;br /&gt;
Распознавание образов часто понимается как распознавание только изображений, но на самом деле это не так: дело в том, что слово «образ» в русском языке не совсем точно соответствует английскому &amp;#039;&amp;#039;pattern&amp;#039;&amp;#039;. У этого слова довольно много значений — «узор», «шаблон», «образец», «структура», но так уж вышло, что в отечественной научной традиции принято говорить именно о распознавании образов, а само направление называть теорией распознавания образов.&lt;br /&gt;
&lt;br /&gt;
Данные, в которых имеются те или иные закономерности, могут иметь самую разную природу: это могут быть оцифрованные изображения, звуки, видео, тексты, сигналы различных датчиков (температуры, давления, перемещения и т. д.) — словом, что угодно, что может быть подано на вход машины. Одно лишь перечисление задач, относящихся к области распознавания образов, заняло бы наверняка не одну сотню страниц. Поэтому здесь мы рассмотрим лишь некоторые типичные задачи, по прогрессу в решении которых принято судить об успехах всей области. Хотя предположение о том, что прогресс в решении отдельных задач распознавания должен сопровождаться прогрессом в решении других задач, выглядит вполне разумным, однако на деле всё может оказаться не так просто. Мы знаем, например, что машины довольно быстро научились идеально играть в крестики-нолики, но безупречный автоматический игрок в шашки появился лишь спустя полвека. Возможность применения для распознавания образов тех или иных алгоритмов и моделей во многом зависит от характеристик данных, и прежде всего от их размерности. Одно дело отличить крестик от нолика на монохромной картинке размером 3 × 3 пикселя (здесь вполне можно обойтись набором составленных вручную правил), и совсем другое — распознать котика на цветной 10‑мегапиксельной фотографии. Важным достижением новой весны ИИ стал существенный прогресс в ряде задач, относящихся к реальному миру, то есть таких задач, которые приходится решать людям в ходе различных производственных процессов. При этом нередко системам искусственного интеллекта удавалось превзойти людей. Это особенно важно в силу того, что в итоге была открыта дорога к автоматизации решения многих задач, решаемых людьми в повседневной жизни.&lt;br /&gt;
&lt;br /&gt;
Для оценки прогресса в решении подобных задач специалисты в области ИИ обычно создают публичные стандартизованные наборы данных, которые позволяют оценивать точность работы различных моделей, а также точность выполнения задач людьми. Мы уже упоминали MNIST — один из подобных наборов, содержащий множество пиксельных образов рукописных цифр. Задача распознавания цифр из этого набора стала тривиальной на границе тысячелетий, поэтому сегодня для оценки прогресса в области распознавания изображений принято использовать более сложные наборы данных. Сегодня, благодаря усилиям сообщества, разработчикам моделей распознавания образов доступны сотни, если не тысячи наборов данных, содержащих изображения, аудио- и видеозаписи, тексты, различные мультимодальные данные (например, наборы изображений, снабжённых текстовыми описаниями, и т. п.)&amp;lt;ref&amp;gt;&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Вообще говоря, термин модальность (от лат. &amp;#039;&amp;#039;modus&amp;#039;&amp;#039; — способ) пришёл в информатику из психологии, в которой понятия «модальность раздражителя» [stimulus modality] и «сенсорная модальность» [sensory modality] используются для того, чтобы указать на восприятие раздражителя определённой сенсорной системой: визуальной (зрительной), аудиальной (слуховой) и так далее. Однако использование этого термина в области информатики приобрело весьма вольный характер. Например, нередко говорят о «текстовой модальности» [text modality], но ведь у человека отсутствуют специальные сенсоры для восприятия текста — мы воспринимаем текст опосредованно, например через зрительную или слуховую систему. Фактически в данном случае термин «модальность» смешивается со способом представления данных [data representation]. Кроме того, очевидно, что машины вовсе не обязаны иметь тот же набор сенсорных систем, что и люди. Увы, связанная с этим путаница в наши дни приобрела уже всеобщий масштаб, и фарш уже вряд ли получится прокрутить в обратном направлении. Но, быть может, ещё не поздно при необходимости использовать для различения смешавшихся понятий составные термины, например «сенсорная модальность» и «модальность представления» [representation modality].&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Portes Q., Carvalho J. M., Pinquier J., Lerasle F. (2021). Multimodal Neural Network for Sentiment Analysis in Embedded Systems // https://www.scitepress.org/Papers/2021/102247/102247.pdf&amp;lt;/ref&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt;Baltrušaitis T., Ahuja C., Morency L.-P. (2018). Multimodal Machine Learning: A Survey and Taxonomy // https://arxiv.org/abs/1705.09406&amp;lt;/ref&amp;gt; и так далее. Более того, регулярно проводятся соревнования по решению различных задач в области распознавания образов, в том числе онлайн — на таких сервисах, как Kaggle, Driven Data, CrowdANALYTIX и др. Причём благодаря появлению облачных платформ, предоставляющих доступ к высокопроизводительным тензорным процессорам (Google Colab, Amazon AWS или отечественный «Кристофари» от Сбербанка), участникам соревнований необязательно даже иметь в собственности дорогое оборудование для обучения моделей. Словом, по сравнению с 1990-ми гг. решительно изменились почти все элементы инфраструктуры, задействованные в сфере распознавания образов, и плоды этих изменений не заставили себя ждать.&lt;/div&gt;</summary>
		<author><name>Andrey Fedichkin</name></author>
	</entry>
</feed>