From e608b0d33acf74683b30fadeeec1d9033e1fcc68 Mon Sep 17 00:00:00 2001 From: ASafin Date: Wed, 28 May 2025 14:48:42 +0300 Subject: [PATCH 1/3] add methodology.html in src/template/ru/2024 --- src/templates/ru/2024/methodology.html | 511 +++++++++++++++++++++++++ 1 file changed, 511 insertions(+) create mode 100644 src/templates/ru/2024/methodology.html diff --git a/src/templates/ru/2024/methodology.html b/src/templates/ru/2024/methodology.html new file mode 100644 index 00000000000..b5267042dae --- /dev/null +++ b/src/templates/ru/2024/methodology.html @@ -0,0 +1,511 @@ +{% extends "base/methodology.html" %} + +{% block title %}Methodology | The Web Almanac by HTTP Archive{% endblock %} + +{% block description %}Describes how the {{ year }} Web Almanac was put together: The Datasets and Tools used and how the project was run.{% endblock %} + +{% block twitter_image_alt %}{{ year }} Web Almanac methodology{% endblock %} + +{% block index %} + +{% endblock %} + +{% block main_content %} +
+ + + + + + + + + + +

Overview

+ +

+ The Web Almanac is a project organized by HTTP Archive. HTTP Archive was started in 2010 by Steve Souders with the mission to track how the web is built. It evaluates the composition of millions of web pages on a monthly basis and makes its terabytes of metadata available for analysis on BigQuery. +

+ +

+ The Web Almanac’s mission is to become an annual repository of public knowledge about the state of the web. Our goal is to make the data warehouse of HTTP Archive even more accessible to the web community by having subject matter experts provide contextualized insights. +

+ +

+ The {{ year }} edition of the Web Almanac is broken into four parts: content, experience, publishing, and distribution. Within each part, several chapters explore their overarching theme from different angles. For example, Part II explores different angles of the user experience in the Performance, Security, and Accessibility chapters, among others. +

+
+ +
+

About the dataset

+ +

+ The HTTP Archive dataset is continuously updating with new data monthly. For the {{ year }} edition of the Web Almanac, unless otherwise noted in the chapter, all metrics were sourced from the June {{ year }} crawl. These results are publicly queryable on BigQuery in tables in the `httparchive.all.*` tables for the date date = '2024-06-01'. +

+ +

+ All of the metrics presented in the Web Almanac are publicly reproducible using the dataset on BigQuery. You can browse the queries used by all chapters in our GitHub repository. +

+ + + +

+ For example, to understand the median number of bytes of JavaScript per desktop and mobile page, see bytes_2024.sql: +

+ +
+ {# To generate this markup temporarily add a ```sql code block to a chapter and generate that chapter and you’ll get the HTML #} + {# Note extra attributes on pre tag to allow keyboard scroll so add them back in #} +
SELECT
+  client,
+  is_root_page,
+  COUNTIF(color_contrast_score IS NOT NULL) AS total_applicable,
+  COUNTIF(CAST(color_contrast_score AS NUMERIC) = 1) AS total_good_contrast,
+  COUNTIF(CAST(color_contrast_score AS NUMERIC) = 1) / COUNTIF(color_contrast_score IS NOT NULL) AS perc_good_contrast
+FROM (
+  SELECT
+    client,
+    is_root_page,
+    date,
+    JSON_VALUE(lighthouse, '$.audits.color-contrast.score') AS color_contrast_score
+  FROM
+    `httparchive.all.pages`
+  WHERE
+    date = '2024-06-01'
+)
+GROUP BY
+  client,
+  is_root_page,
+  date
+ORDER BY
+  client,
+  is_root_page;
+
+ +

+ Results for each metric are publicly viewable in chapter-specific spreadsheets, for example JavaScript results. Links to the raw results and queries are available at the bottom of each chapter. Metric-specific results and queries are also linked directly from each figure. +

+
+ +
+

Websites

+ + {# SQL for the following stats: + DECLARE thedate DATE DEFAULT '2024-06-01'; + + # Run this to get number of sites analysed + SELECT "ALL" AS client, COUNT(DISTINCT root_page) AS num_sites FROM `httparchive.all.pages` where date = thedate + UNION ALL + SELECT client, COUNT(DISTINCT root_page) FROM `httparchive.all.pages` where date = thedate group by client; + #} +

+ There are 16,935,953 websites in the dataset. Among those, 16,130,357 are mobile websites and 12,740,973 are desktop websites. Most websites are included in both the mobile and desktop subsets. +

+ +

+ HTTP Archive sources the URLs for its websites from the Chrome UX Report. The Chrome UX Report is a public dataset from Google that aggregates user experiences across millions of websites actively visited by Chrome users. This gives us a list of websites that are up-to-date and a reflection of real-world web usage. The Chrome UX Report dataset includes a form factor dimension, which we use to get all of the websites accessed by desktop or mobile users. +

+ +

+ The June {{ year }} HTTP Archive crawl used by the Web Almanac used the most recently available Chrome UX Report release for its list of websites. The {{ year }}06 dataset was released on Jul 8, {{ year }} and captures websites visited by Chrome users during the month of June. +

+ +

+ Due to resource limitations, the HTTP Archive previously could only test two pages from each website in the Chrome UX report. Be aware that this will introduce some bias into the results because a home page is not necessarily representative of the entire website. This year, we included secondary pages, and many chapters use this new data. Some chapters, however, used just the home pages. +

+ +

+ HTTP Archive is also considered a lab testing tool, meaning it tests websites from a datacenter and does not collect data from real-world user experiences. All pages are tested with an empty cache in a logged out state, which may not reflect how real users would access them. +

+
+ +
+

Metrics

+ +

+ HTTP Archive collects thousands of metrics about how the web is built. It includes basic metrics like the number of bytes per page, whether the page was loaded over HTTPS, and individual request and response headers. The majority of these metrics are provided by WebPageTest, which acts as the test runner for each website. +

+ +

+ Other testing tools are used to provide more advanced metrics about the page. For example, Lighthouse is used to run audits against the page to analyze its quality in areas like accessibility and SEO. The Tools section below goes into each of these tools in more detail. +

+ +

+ To work around some of the inherent limitations of a lab dataset, the Web Almanac also makes use of the Chrome UX Report for metrics on user experiences, especially in the area of web performance. +

+ +

+ Some metrics are completely out of reach. For example, we don’t necessarily have the ability to detect the tools used to build a website. If a website is built using create-react-app, we could tell that it uses the React framework, but not necessarily that a particular build tool is used. Unless these tools leave detectible fingerprints in the website’s code, we’re unable to measure their usage. +

+ +

+ Other metrics may not necessarily be impossible to measure but are challenging or unreliable. For example, aspects of web design are inherently visual and may be difficult to quantify, like whether a page has an intrusive modal dialog. +

+
+ +
+

Tools

+ +

+ The Web Almanac is made possible with the help of the following open source tools. +

+
+ +
+

WebPageTest

+ +

+ WebPageTest is a prominent web performance testing tool and the backbone of HTTP Archive. We use a private instance of WebPageTest with private test agents, which are the actual browsers that test each web page. Desktop and mobile websites are tested under different configurations: +

+
+ + + + + + + + + + + + + + + + {# Use this SQL to get the most commonly used User Agent (check it's over 50%): + + SELECT + client, + req_headers.value, + COUNT(0) / SUM(COUNT(0)) OVER (PARTITION BY client) AS pct_crawl + FROM + `httparchive.all.requests`, + UNNEST (request_headers) AS req_headers + WHERE + date = '2024-06-01' AND + is_root_page AND + is_main_document AND + LOWER(req_headers.name) = "user-agent" + GROUP BY + client, + req_headers.value + QUALIFY + COUNT(0) = MAX(COUNT(0)) OVER (PARTITION BY client); + #} + + + + + + + + + + + + + + + + + + + + + + + + +
ConfigDesktopMobile
DeviceLinux VMEmulated Moto G4
User Agent + Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 PTST/240613.172707 + + Mozilla/5.0 (Linux; Android 8.1.0; Moto G (4)) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Mobile Safari/537.36 PTST/240613.172707 +
Location + Google Cloud Locations, USA + + Google Cloud Locations, USA +
ConnectionCable (5/1 Mbps 28ms RTT)4G (9 Mbps 170ms RTT)
Viewport1376 x 768px512 x 360px
+
+ +

+ Desktop websites are run from within a desktop Chrome environment on a Linux VM. The network speed is equivalent to a cable connection. +

+ +

+ Mobile websites are run from within a mobile Chrome environment on an emulated Moto G4 device with a network speed equivalent to a 4G connection. +

+ +

+ Test agents run from various Google Cloud Platform locations based in the USA. +

+ +

+ HTTP Archive’s private instance of WebPageTest is kept in sync with the latest public version and augmented with custom metrics, which are snippets of JavaScript that are evaluated on each website at the end of the test. +

+ +

+ The results of each test are made available as a HAR file, a JSON-formatted archive file containing metadata about the web page. +

+
+ +
+

Lighthouse

+ +

+ Lighthouse is an automated website quality assurance tool built by Google. It audits web pages to make sure they don’t include user experience antipatterns like unoptimized images and inaccessible content. +

+ +

+ HTTP Archive runs the latest version of Lighthouse for all pages. As of the June {{ year }} crawl, HTTP Archive used the 12.0.0 version of Lighthouse. +

+ +

+ Lighthouse is run as its own distinct test from within WebPageTest, but it has its own configuration profile: +

+
+ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
ConfigDesktopMobile
CPU slowdownN/A1x/4x
Download throughput1.6 Mbps1.6 Mbps
Upload throughput0.768 Mbps0.768 Mbps
RTT150 ms150 ms
+
+ +

+ For more information about Lighthouse and the audits available in HTTP Archive, refer to the Lighthouse developer documentation. +

+
+ +
+

Wappalyzer

+ +

+ Wappalyzer is a tool for detecting technologies used by web pages. There are 108 categories of technologies tested, ranging from JavaScript frameworks, to CMS platforms, and even cryptocurrency miners. There are over 3,944 supported technologies (a slight increase from 3,805 in 2022). +

+ +

+ HTTP Archive runs it's fork of the last open source version of Wappalyzer (v6.10.65), with some extra detections added since. +

+ +

+ Wappalyzer powers many chapters that analyze the popularity of developer tools like WordPress, Bootstrap, and jQuery. For example, the CMS chapter relies heavily on the respective CMS category of technologies detected by Wappalyzer. +

+ +

+ All detection tools, including Wappalyzer, have their limitations. The validity of their results will always depend on how accurate their detection mechanisms are. The Web Almanac will add a note in every chapter where Wappalyzer is used but its analysis may not be accurate due to a specific reason. +

+
+ +
+

Chrome UX Report

+ +

+ The Chrome UX Report is a public dataset of real-world Chrome user experiences. Experiences are grouped by websites’ origin, for example https://www.example.com. The dataset includes distributions of UX metrics like paint, load, interaction, and layout stability. In addition to grouping by month, experiences may also be sliced by dimensions like country-level geography, form factor (desktop, phone, tablet), and effective connection type (4G, 3G, etc.). +

+ +

+ The Chrome UX Report dataset includes relative website ranking data. These are referred to as rank magnitudes because, as opposed to fine-grained ranks like the #1 or #116 most popular websites, websites are grouped into rank buckets from the top 1k, top 10k, up to the top 10M. Each website is ranked according to the number of eligible page views on all of its pages combined. This year's Web Almanac makes extensive use of this new data as a way to explore variations in the way the web is built by site popularity. +

+ +

+ For Web Almanac metrics that reference real-world user experience data from the Chrome UX Report, the June {{ year }} dataset ({{ year }}06) is used. +

+ +

+ You can learn more about the dataset in the Using the Chrome UX Report on BigQuery guide on developer.chrome.com. +

+
+ +
+ + +

+ Blink Features are indicators flagged by Chrome whenever a particular web platform feature is detected to be used. +

+ +

+ We use Blink Features to get a different perspective on feature adoption. This data is especially useful to distinguish between features that are implemented on a page and features that are actually used. +

+ +

+ Blink Features are reported by WebPageTest as part of our regular testing. +

+
+ +
+

Third Party Web

+ +

+ Third Party Web is a research project by Patrick Hulce, author of the 2019 Third Parties chapter, that uses HTTP Archive and Lighthouse data to identify and analyze the impact of third party resources on the web. +

+ +

+ Domains are considered to be a third party provider if they appear on at least 50 unique pages. The project also groups providers by their respective services in categories like ads, analytics, and social. +

+ +

+ Several chapters in the Web Almanac use the domains and categories from this dataset to understand the impact of third parties. +

+
+ +
+

Rework CSS

+ +

+ Rework CSS is a JavaScript-based CSS parser. It takes entire stylesheets and produces a JSON-encoded object distinguishing each individual style rule, selector, directive, and value. See this thread for more information about how it was integrated with the HTTP Archive dataset on BigQuery. +

+
+ +
+

Parsel

+ +

+ Parsel is a CSS selector parser and specificity calculator, originally written by 2020 CSS chapter lead Lea Verou and open sourced as a separate library. It is used extensively in all CSS metrics that relate to selectors and specificity. +

+
+ +
+

Analytical process

+ +

+ The Web Almanac took about a year to plan and execute with the coordination of more than a hundred contributors from the web community. This section describes why we chose the chapters you see in the Web Almanac, how their metrics were queried, and how they were interpreted. +

+
+ +
+

Planning

+ +

+ The {{ year }} Web Almanac kicked off in March {{ year }} with a call for contributors. We initialized the project with the same chapters from previous years and the community suggested additional topics that became one new chapters this year: Cookies. +

+ +

+ As we stated in the inaugural year’s Methodology: +

+ +
+ One explicit goal for future editions of the Web Almanac is to encourage even more inclusion of underrepresented and heterogeneous voices as authors and peer reviewers. +
+ +

+ To that end, this year we’ve continued our author selection process: +

+ + + +

+ We hope to iterate on this process in the future to ensure that the Web Almanac is a more diverse and inclusive project with contributors from all backgrounds. +

+
+ +
+

Analysis

+ +

+ In April and May {{ year }}, data analysts worked with authors and peer reviewers to come up with a list of metrics that would need to be queried for each chapter. In some cases, custom metrics were created to fill gaps in our analytic capabilities. +

+ +

+ Throughout May {{ year }}, the HTTP Archive data pipeline crawled several million websites, gathering the metadata to be used in the Web Almanac. These results were post-processed and saved to BigQuery. +

+ +

+ Being our fith year, we were able to update and reuse the queries written by previous analysts. Still, there were many new metrics that needed to be written from scratch. You can browse all of the queries by year and chapter in our open source query repository on GitHub. +

+
+ +
+

Interpretation

+ +

+ Authors worked with analysts to correctly interpret the results and draw appropriate conclusions. As authors wrote their respective chapters, they drew from these statistics to support their framing of the state of the web. Peer reviewers worked with authors to ensure the technical correctness of their analysis. +

+ +

+ To make the results more easily understandable to readers, web developers and analysts created data visualizations to embed in the chapter. Some visualizations are simplified to make the points more clearly. For example, rather than showing a full distribution, only a handful of percentiles are shown. Unless otherwise noted, all distributions are summarized using percentiles, especially medians (the 50th percentile), and not averages. +

+ +

+ Finally, editors revised the chapters to fix simple grammatical errors and ensure consistency across the reading experience. +

+
+ +
+

Looking ahead

+ +

+ The {{ year }} edition of the Web Almanac is the fifth in what is mostly an annual tradition (we took a break in 2023) in the web community of introspection and a commitment to positive change. Getting to this point has been a monumental effort thanks to many dedicated contributors and we hope to leverage as much of this work as possible to make future editions even more streamlined. +

+
+{% endblock main_content %} From 467af656e8e20f2c19ad3f165248729c80e2fe11 Mon Sep 17 00:00:00 2001 From: ASafin Date: Wed, 28 May 2025 17:20:11 +0300 Subject: [PATCH 2/3] Russia translation base and methodology.html in src/template/ru/2024 --- src/templates/ru/2024/base.html | 18 +- src/templates/ru/2024/methodology.html | 222 ++++++++++++------------- 2 files changed, 120 insertions(+), 120 deletions(-) diff --git a/src/templates/ru/2024/base.html b/src/templates/ru/2024/base.html index 570f1c86ca2..1ec711174ad 100644 --- a/src/templates/ru/2024/base.html +++ b/src/templates/ru/2024/base.html @@ -6,35 +6,35 @@ {% block dataset %}июнь 2024{% endblock %} {% block foreword %} -{# TODO - translate #}
+

- It feels as if a lot has changed in the world in just the last two years. Some changes are negative, such as the increase in regional conflicts and the broader tension they raise globally. Some changes are positive though, such as putting the COVID-19 pandemic mostly behind us and important growth in sustainable energy generation. + Кажется, что за последние два года в мире многое изменилось. Некоторые изменения носят негативный характер, например, рост числа региональных конфликтов и более широкая напряженность, которую они вызывают в глобальном масштабе. Но есть и позитивные изменения, например, пандемия COVID-19 осталась в основном позади, а также значительный рост производства устойчивой энергии.

- In just about every corner of the earth however, it’s likely that the web contributes to your quality of life in some way. Has the web gotten better over the last couple of years? How should we feel about its health? + Однако практически в каждом уголке Земли web, скорее всего, так или иначе влияет на качество вашей жизни. Стал ли веб лучше за последние несколько лет? Как мы должны относиться к его "здоровью"?

- The 2024 Web Almanac is here to provide you data to help answer that question. After a hiatus in 2023, a team of passionate researchers have stepped forward this year to investigate important aspects of the modern web using data. Like most technologies, the web grows more complex over time and the Web Almanac help us make sense of things, including a new chapter on Cookies this year. + Web Almanac 2024 года предоставляет данные, чтобы ответить на эти вопросы. После перерыва в 2023 году команда увлечённых исследователей взялась за изучение современных аспектов web с помощью данных. Как и большинство технологий, web становится сложнее, и Web Almanac помогает в нём разобраться — в этом году добавлена новая глава о Cookies.

- This year marks a significant step in evolving the Web Almanac towards a more community-driven project, inspired by the organizational models of academic conferences. Previously maintained by the dedicated HTTP Archive team, the 2024 Almanac introduces a formal organizing committee to foster broader collaboration and inclusivity. Key roles, such as General Chair, Program Committee Chair, and Event Chair, have been established to streamline responsibilities and encourage participation from diverse contributors. This distributed leadership structure is designed to make the Web Almanac more community-driven, which in turn aims to enhance its sustainability by inviting a wider range of voices and perspectives, making the Web Almanac a more collaborative resource for the web community. We hope that this shift towards a community-driven model will strengthen the Web Almanac’s foundation and lead to many future editions. + В этом году мы сделали важный шаг к превращению Web Almanac в проект, управляемый сообществом, вдохновленного организационными моделями академических конференций. Раньше им занималась команда HTTP Archive, но в 2024 году введён формальный организационный комитет для расширения сотрудничества. Ключевые роли (генеральный председатель, председатель программного комитет) распределены для привлечения разнообразных участников. Эта модель управления укрепит фундамент Web Almanac и обеспечит его ежегодное издание.

- It’s been great to experience the motivation and inclusion from the community—spanning young doctoral researchers to senior experts worldwide. We sincerely thank each of our contributors; it is their hard work that makes this open-source project possible. + Было очень приятно ощущать мотивацию и вовлеченность сообщества - от молодых докторов наук до старших экспертов по всему миру. Мы искренне благодарим каждого из наших участников, именно благодаря их упорному труду этот open-source проект стал возможным.

- As an engine of prosperity, it’s important that we understand what’s working well on the web and where it needs more support. We encourage you to explore, debate, and share the details in the 2024 Web Almanac so it can better serve us all. We are all in this together. + Как двигателю прогресса, нам важно понимать, что в Web работает хорошо, а что нуждается в дополнительной поддержке. Мы призываем вас изучать, обсуждать и делиться данными Web Almanac 2024, чтобы он мог лучше служить всем нам. Мы вместе в этом процессе.

- —Nurullah Demir, 2024 Web Almanac General Co-Chair
- —Caleb Queern, 2024 Web Almanac General Co-Chair + —Nurullah Demir, сопредседатель 2024 Web Almanac
+ —Caleb Queern, сопредседатель 2024 Web Almanac

diff --git a/src/templates/ru/2024/methodology.html b/src/templates/ru/2024/methodology.html index b5267042dae..a57372e6c85 100644 --- a/src/templates/ru/2024/methodology.html +++ b/src/templates/ru/2024/methodology.html @@ -1,21 +1,21 @@ {% extends "base/methodology.html" %} -{% block title %}Methodology | The Web Almanac by HTTP Archive{% endblock %} +{% block title %}Методология | The Web Almanac от HTTP Archive{% endblock %} -{% block description %}Describes how the {{ year }} Web Almanac was put together: The Datasets and Tools used and how the project was run.{% endblock %} +{% block description %}Описание методологии {{ year }} Web Almanac: наборы данных, инструменты и процесс реализации проекта.{% endblock %} -{% block twitter_image_alt %}{{ year }} Web Almanac methodology{% endblock %} +{% block twitter_image_alt %}Методология Web Almanac {{ year }} года{% endblock %} {% block index %} {% endblock %} @@ -54,38 +54,38 @@ -

Overview

+

Краткий обзор

- The Web Almanac is a project organized by HTTP Archive. HTTP Archive was started in 2010 by Steve Souders with the mission to track how the web is built. It evaluates the composition of millions of web pages on a monthly basis and makes its terabytes of metadata available for analysis on BigQuery. + The Web Almanac — проект HTTP Archive, запущенного в 2010 году Стивом Саудерсом для отслеживания эволюции web. Он ежемесячно анализирует миллионы веб-страниц и предоставляет терабайты метаданных черезBigQuery.

- The Web Almanac’s mission is to become an annual repository of public knowledge about the state of the web. Our goal is to make the data warehouse of HTTP Archive even more accessible to the web community by having subject matter experts provide contextualized insights. + Миссия Web Almanac — стать ежегодным справочником о состоянии web. Мы делаем данные HTTP Archive доступнее, привлекая экспертов для контекстного анализа.

- The {{ year }} edition of the Web Almanac is broken into four parts: content, experience, publishing, and distribution. Within each part, several chapters explore their overarching theme from different angles. For example, Part II explores different angles of the user experience in the Performance, Security, and Accessibility chapters, among others. + Издание {{ year }} года состоит из четырёх частей: контент, пользовательский опыт, публикация и распространение. Каждая часть исследуется под разными углами (например, в части "Опыт" рассматриваются производительность, безопасность и доступность).

-

About the dataset

+

О наборе данных

- The HTTP Archive dataset is continuously updating with new data monthly. For the {{ year }} edition of the Web Almanac, unless otherwise noted in the chapter, all metrics were sourced from the June {{ year }} crawl. These results are publicly queryable on BigQuery in tables in the `httparchive.all.*` tables for the date date = '2024-06-01'. + Данные HTTP Archive обновляются ежемесячно. Для Web Almanac {{ year }} года, если в главе не указано иное, использовался набор данных за июнь {{ year }} года. Результаты доступны в publicly queryable BigQuery в таблицах `httparchive.all.*` с датой date = '2024-06-01'.

- All of the metrics presented in the Web Almanac are publicly reproducible using the dataset on BigQuery. You can browse the queries used by all chapters in our GitHub repository. + Все метрики, представленные в Web Almanac, можно воспроизвести в открытом доступе, используя набор данных на BigQuery. Вы можете просмотреть запросы, использованные во всех главах, в нашем разделе GitHub-репозитория.

- For example, to understand the median number of bytes of JavaScript per desktop and mobile page, see bytes_2024.sql: + Например, чтобы узнать среднее количество байт JavaScript на странице для компьютеров и телефонов, смотрите bytes_2024.sql:

@@ -118,12 +118,12 @@

About the dataset

- Results for each metric are publicly viewable in chapter-specific spreadsheets, for example JavaScript results. Links to the raw results and queries are available at the bottom of each chapter. Metric-specific results and queries are also linked directly from each figure. + Результаты по каждой метрике доступны для публичного просмотра в электронных таблицах по отдельным разделам, например JavaScript results. Ссылки на исходные результаты и запросы доступны в нижней части каждой главы. Ссылки на результаты и запросы по конкретным метрикам также находятся непосредственно на каждой фигуре.

-

Websites

+

Сайты

{# SQL for the following stats: DECLARE thedate DATE DEFAULT '2024-06-01'; @@ -134,55 +134,55 @@

Websites

SELECT client, COUNT(DISTINCT root_page) FROM `httparchive.all.pages` where date = thedate group by client; #}

- There are 16,935,953 websites in the dataset. Among those, 16,130,357 are mobile websites and 12,740,973 are desktop websites. Most websites are included in both the mobile and desktop subsets. + В наборе данных содержится 16 935 953 веб-сайта. Из них 16 130 357 - это мобильные сайты, а 12 740 973 - десктопные. Большинство сайтов присутствуют в обеих категориях.

- HTTP Archive sources the URLs for its websites from the Chrome UX Report. The Chrome UX Report is a public dataset from Google that aggregates user experiences across millions of websites actively visited by Chrome users. This gives us a list of websites that are up-to-date and a reflection of real-world web usage. The Chrome UX Report dataset includes a form factor dimension, which we use to get all of the websites accessed by desktop or mobile users. + HTTP Archive берет URL-адреса для своих сайтов из Chrome UX Report. Chrome UX Report - это публичный набор данных от Google, в котором собраны впечатления пользователей от миллионов сайтов, активно посещаемых пользователями Chrome. Таким образом, мы получаем актуальный список сайтов, отражающий реальное использование веб-ресурсов. Набор данных Chrome UX Report включает измерение форм-фактора, которое мы используем для получения всех веб-сайтов, посещаемых пользователями компьютеров и телефонов.

- The June {{ year }} HTTP Archive crawl used by the Web Almanac used the most recently available Chrome UX Report release for its list of websites. The {{ year }}06 dataset was released on Jul 8, {{ year }} and captures websites visited by Chrome users during the month of June. + Сканированный,июньский HTTP Archive {{ year }} года, используемый Web Almanac, использовал последний доступный выпуск Chrome UX Report для списка веб-сайтов. Набор данных {{ year }}06 был выпущен 8 июля {{ year }} года и отражает веб-сайты, посещенные пользователями Chrome в июне.

- Due to resource limitations, the HTTP Archive previously could only test two pages from each website in the Chrome UX report. Be aware that this will introduce some bias into the results because a home page is not necessarily representative of the entire website. This year, we included secondary pages, and many chapters use this new data. Some chapters, however, used just the home pages. + Из-за ограниченности ресурсов HTTP Archive ранее мог тестировать только две страницы с каждого сайта в отчете Chrome UX. Имейте в виду, что это вносит некоторую погрешность в результаты, поскольку главная страница не обязательно является репрезентативной для всего сайта. В этом году мы включили в отчет второстепенные страницы, и многие главы используют эти новые данные. Однако, некоторые главы использовали только домашние страницы.

- HTTP Archive is also considered a lab testing tool, meaning it tests websites from a datacenter and does not collect data from real-world user experiences. All pages are tested with an empty cache in a logged out state, which may not reflect how real users would access them. + HTTP Archive также считается лабораторным инструментом тестирования, то есть он тестирует веб-сайты из центра обработки данных и не собирает данные о реальном опыте пользователей. Все страницы тестируются с пустым кэшем в состоянии выхода из системы, что может не отражать того, как к ним обращаются реальные пользователи.

-

Metrics

+

Метрики

- HTTP Archive collects thousands of metrics about how the web is built. It includes basic metrics like the number of bytes per page, whether the page was loaded over HTTPS, and individual request and response headers. The majority of these metrics are provided by WebPageTest, which acts as the test runner for each website. + HTTP Archive собирает тысячи показателей о том, как устроен web. Он включает в себя такие базовые показатели, как количество байт на страницу, была ли страница загружена по HTTPS, а также отдельные заголовки запроса и ответа. Большинство этих показателей предоставляются WebPageTest, который выступает в роли программы тестирования для каждого сайта.

- Other testing tools are used to provide more advanced metrics about the page. For example, Lighthouse is used to run audits against the page to analyze its quality in areas like accessibility and SEO. The Tools section below goes into each of these tools in more detail. + Другие инструменты тестирования используются для получения более подробных показателей страницы. Например, Lighthouse используется для проведения аудита страницы с целью анализа ее качества в таких областях, как доступность и SEO. Ниже в разделе Инструменты каждый из этих инструментов рассматривается более подробно.

- To work around some of the inherent limitations of a lab dataset, the Web Almanac also makes use of the Chrome UX Report for metrics on user experiences, especially in the area of web performance. + Чтобы обойти некоторые ограничения, присущие лабораторному набору данных, веб-альманах также использует Chrome UX Report для оценки пользовательского опыта, особенно в веб-области.

- Some metrics are completely out of reach. For example, we don’t necessarily have the ability to detect the tools used to build a website. If a website is built using create-react-app, we could tell that it uses the React framework, but not necessarily that a particular build tool is used. Unless these tools leave detectible fingerprints in the website’s code, we’re unable to measure their usage. + Некоторые показатели совершенно недостижимы. Например, мы необязательно должны иметь возможность определять инструменты, используемые для создания сайта. Если сайт создан с помощью create-react-app, мы можем сказать, что в нем используется фреймворк React, но не обязательно, что используется конкретный инструмент сборки. Если только эти инструменты не оставляют заметных следов в коде сайта, мы не можем определить их использование.

- Other metrics may not necessarily be impossible to measure but are challenging or unreliable. For example, aspects of web design are inherently visual and may be difficult to quantify, like whether a page has an intrusive modal dialog. + Другие показатели не обязательно невозможно измерить, но сложно или ненадежно. Например, аспекты веб-дизайна по своей сути являются визуальными и могут быть трудно поддаваться количественной оценке, такие как, например, наличие на странице навязчивого модального диалога.

-

Tools

+

Инструменты

- The Web Almanac is made possible with the help of the following open source tools. + Web Almanac стал возможен благодаря следующим инструментам с открытым исходным кодом.

@@ -190,22 +190,22 @@

Tools

WebPageTest

- WebPageTest is a prominent web performance testing tool and the backbone of HTTP Archive. We use a private instance of WebPageTest with private test agents, which are the actual browsers that test each web page. Desktop and mobile websites are tested under different configurations: + WebPageTest это известный инструмент для тестирования производительности веб-сайтов и основа HTTP Archive. Мы используем частный экземпляр WebPageTest с частными тестовыми агентами, которые являются фактическими браузерами, тестирующими каждую веб-страницу. Обычные и мобильные веб-сайты тестируются в разных конфигурациях:

- - - + + + - + - + {# Use this SQL to get the most commonly used User Agent (check it's over 50%): @@ -229,7 +229,7 @@

WebPageTest< COUNT(0) = MAX(COUNT(0)) OVER (PARTITION BY client); #}

- + @@ -239,23 +239,23 @@

WebPageTest<

- + - - + + - + @@ -264,23 +264,23 @@

WebPageTest<

- Desktop websites are run from within a desktop Chrome environment on a Linux VM. The network speed is equivalent to a cable connection. + Обычные веб-сайты запускаются из среды Chrome на виртуальной машине Linux. Скорость сети эквивалентна кабельному соединению.

- Mobile websites are run from within a mobile Chrome environment on an emulated Moto G4 device with a network speed equivalent to a 4G connection. + Мобильные веб-сайты запускаются в мобильной среде Chrome на эмулируемом устройстве Moto G4 со скоростью сети, эквивалентной 4G-подключению.

- Test agents run from various Google Cloud Platform locations based in the USA. + Тестовые агенты запускаются из различных локаций Google Cloud Platform расположенных в США.

- HTTP Archive’s private instance of WebPageTest is kept in sync with the latest public version and augmented with custom metrics, which are snippets of JavaScript that are evaluated on each website at the end of the test. + Частный экземпляр WebPageTest в HTTP Archive синхронизируется с последней общедоступной версией и дополняется пользовательскими метриками, которые представляют собой фрагменты JavaScript, оцениваемые на каждом сайте в конце теста.

- The results of each test are made available as a HAR file, a JSON-formatted archive file containing metadata about the web page. + Результаты каждого теста предоставляются в виде HAR файла — архивного файла в формате JSON, содержащего метаданные о веб-странице.

@@ -288,52 +288,52 @@

WebPageTest<

Lighthouse

- Lighthouse is an automated website quality assurance tool built by Google. It audits web pages to make sure they don’t include user experience antipatterns like unoptimized images and inaccessible content. + Lighthouse это автоматизированный инструмент проверки качества веб-сайтов, созданный компанией Google. Он проверяет веб-страницы, чтобы убедиться, что они не содержат таких антипаттернов пользовательского опыта, как неоптимизированные изображения и недоступный контент.

- HTTP Archive runs the latest version of Lighthouse for all pages. As of the June {{ year }} crawl, HTTP Archive used the 12.0.0 version of Lighthouse. + HTTP Archive использует последнюю версию Lighthouse для всех страниц. По состоянию на июнь {{ year }} года HTTP Archive использовал версию 12.0.0 Lighthouse.

- Lighthouse is run as its own distinct test from within WebPageTest, but it has its own configuration profile: + Lighthouse запускается как отдельный тест из WebPageTest, но имеет собственный профиль конфигурации:

ConfigDesktopMobileКонфигурацияКомпьютерМобильная версия
DeviceУстройство Linux VMEmulated Moto G4Эмулятор Moto G4
User AgentПользовательский агент Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 PTST/240613.172707
LocationРасположение - Google Cloud Locations, USA + Google Cloud Locations, США - Google Cloud Locations, USA + Google Cloud Locations, США
ConnectionCable (5/1 Mbps 28ms RTT)СвязьКабель (5/1 Mbps 28ms RTT) 4G (9 Mbps 170ms RTT)
ViewportОкно просмотра 1376 x 768px 512 x 360px
- - - + + + - - + + - - - + + + - - - + + + - - - + + +
ConfigDesktopMobileКонфигурацияДесктопная версияМобильная версия
CPU slowdownN/AЗамедление CPUИнформация отсутствует 1x/4x
Download throughput1.6 Mbps1.6 MbpsПропускная способность загрузки1.6 Мбит/с1.6 Мбит/с
Upload throughput0.768 Mbps0.768 MbpsПропускная способность загрузки0.768 Мбит/с0.768 Мбит/с
RTT150 ms150 msКруговая задержка150 мс150 мс

- For more information about Lighthouse and the audits available in HTTP Archive, refer to the Lighthouse developer documentation. + Дополнительную информацию о Lighthouse и аудитах, доступных в HTTP Archive, можно найти в документации для разработчиков Lighthouse.

@@ -341,39 +341,39 @@

Lighthouse

Wappalyzer

- Wappalyzer is a tool for detecting technologies used by web pages. There are 108 categories of technologies tested, ranging from JavaScript frameworks, to CMS platforms, and even cryptocurrency miners. There are over 3,944 supported technologies (a slight increase from 3,805 in 2022). + Wappalyzer — это инструмент для обнаружения технологий, используемых веб-страницами. Протестировано 108 категорий технологий, от фреймворков JavaScript до платформ CMS и даже майнеров криптовалют. Поддерживается более 3944 технологий (небольшое увеличение с 3805 в 2022 году).

- HTTP Archive runs it's fork of the last open source version of Wappalyzer (v6.10.65), with some extra detections added since. + HTTP Archive использует свою версию последней версии Wappalyzer с открытым исходным кодом (v6.10.65), в которую с тех пор были добавлены некоторые дополнительные обнаружения.

- Wappalyzer powers many chapters that analyze the popularity of developer tools like WordPress, Bootstrap, and jQuery. For example, the CMS chapter relies heavily on the respective CMS category of technologies detected by Wappalyzer. + Wappalyzer поддерживает множество глав, в которых анализируется популярность инструментов разработчика, таких как WordPress, Bootstrap и jQuery. Например, глава CMS в значительной степени опирается на соответствующую категорию CMS технологий, обнаруженных Wappalyzer.

- All detection tools, including Wappalyzer, have their limitations. The validity of their results will always depend on how accurate their detection mechanisms are. The Web Almanac will add a note in every chapter where Wappalyzer is used but its analysis may not be accurate due to a specific reason. + Все инструменты обнаружения, включая Wappalyzer, имеют свои ограничения. Достоверность их результатов всегда будет зависеть от точности их механизмов обнаружения. Web Almanac добавит примечание в каждую главу, где используется Wappalyzer, но его анализ может быть неточным по определенной причине.

-

Chrome UX Report

+

Отчёт Chrome UX Report

- The Chrome UX Report is a public dataset of real-world Chrome user experiences. Experiences are grouped by websites’ origin, for example https://www.example.com. The dataset includes distributions of UX metrics like paint, load, interaction, and layout stability. In addition to grouping by month, experiences may also be sliced by dimensions like country-level geography, form factor (desktop, phone, tablet), and effective connection type (4G, 3G, etc.). + The Chrome UX Report — это общедоступный набор данных о реальном опыте пользователей Chrome. Опыт сгруппирован по происхождению веб-сайтов, например https://www.example.com. Набор данных включает распределение показателей UX, таких как прорисовка, загрузка, взаимодействие и стабильность макета. Помимо группировки по месяцам, опыт также может быть разделен по таким измерениям, как география на уровне страны, форм-фактор (компьютер, телефон, планшет) и эффективный тип подключения (4G, 3G и т. д.).

- The Chrome UX Report dataset includes relative website ranking data. These are referred to as rank magnitudes because, as opposed to fine-grained ranks like the #1 or #116 most popular websites, websites are grouped into rank buckets from the top 1k, top 10k, up to the top 10M. Each website is ranked according to the number of eligible page views on all of its pages combined. This year's Web Almanac makes extensive use of this new data as a way to explore variations in the way the web is built by site popularity. + Набор данных Chrome UX Report включает относительные данные о рейтинге веб-сайтов. Они называются величинами ранга, поскольку в отличие от детальных рейтингов, таких как #1 или #116 самых популярных веб-сайтов, веб-сайты группируются в ранговые сегменты от топ-1000, топ-10000 и до топ-10M. Каждый веб-сайт ранжируется в соответствии с количеством просмотров соответствующих страниц на всех его страницах вместе взятых. В этом году Web Almanac широко использует эти новые данные как способ изучения вариаций в том, как веб строится по популярности сайта.

- For Web Almanac metrics that reference real-world user experience data from the Chrome UX Report, the June {{ year }} dataset ({{ year }}06) is used. + Для показателей Web Almanac, которые ссылаются на данные о реальном пользовательском опыте из отчета Chrome UX, используется набор данных за июнь {{ year }} года ({{ year }}06).

- You can learn more about the dataset in the Using the Chrome UX Report on BigQuery guide on developer.chrome.com. + Дополнительную информацию о наборе данных можно найти в руководстве Использование отчета Chrome UX в BigQuery на сайте developer.chrome.com.

@@ -381,15 +381,15 @@

Chrome

- Blink Features are indicators flagged by Chrome whenever a particular web platform feature is detected to be used. + Blink Features — это индикаторы, которые Chrome помечает каждый раз, когда обнаруживает использование определенной функции веб-платформы.

- We use Blink Features to get a different perspective on feature adoption. This data is especially useful to distinguish between features that are implemented on a page and features that are actually used. + Мы используем данные Blink Features, чтобы взглянуть на внедрение функций с другой стороны. Эти данные особенно полезны для разграничения функций, реализованных на странице, и функций, которые действительно используются.

- Blink Features are reported by WebPageTest as part of our regular testing. + Функции Blink регистрируются WebPageTest в рамках нашего регулярного тестирования.

@@ -397,15 +397,15 @@

Third Pa

Rework CSS

- Rework CSS is a JavaScript-based CSS parser. It takes entire stylesheets and produces a JSON-encoded object distinguishing each individual style rule, selector, directive, and value. See this thread for more information about how it was integrated with the HTTP Archive dataset on BigQuery. + Rework CSS — это парсер CSS на основе JavaScript. Он берет целые таблицы стилей и создает объект в кодировке JSON, различающий каждое отдельное правило стиля, селектор, директиву и значение. Подробнее об интеграции с набором данных HTTP Archive в BigQuery см. в 'этой ветке'.

@@ -421,91 +421,91 @@

Rework CSS

Parsel

- Parsel is a CSS selector parser and specificity calculator, originally written by 2020 CSS chapter lead Lea Verou and open sourced as a separate library. It is used extensively in all CSS metrics that relate to selectors and specificity. + Parsel — это парсер селекторов CSS и калькулятор спецификации, изначально написанный руководителем отдела CSS 2020 годаЛеей Веру с открытым исходным кодом как отдельная библиотека. Он широко используется во всех метриках CSS, которые относятся к селекторам и специфичности.

-

Analytical process

+

Аналитический процесс

- The Web Almanac took about a year to plan and execute with the coordination of more than a hundred contributors from the web community. This section describes why we chose the chapters you see in the Web Almanac, how their metrics were queried, and how they were interpreted. + На планирование и реализацию Web Almanac ушло около года, включая координацию более сотни участников веб-сообщества. В этом разделе описывается, почему мы выбрали главы, которые вы видите в Web Almanac, как запрашивались их показатели и как они интерпретировались.

-

Planning

+

Планирование

- The {{ year }} Web Almanac kicked off in March {{ year }} with a call for contributors. We initialized the project with the same chapters from previous years and the community suggested additional topics that became one new chapters this year: Cookies. + Web Almanac {{ year }} года стартовал в марте {{ year }} года с призыва к соавторам. Мы инициировали проект с теми же главами из предыдущих лет, и сообщество предложило дополнительные темы, которые стали одной из новых глав в этом году: Файлы cookie.

- As we stated in the inaugural year’s Methodology: + Как мы заявили в Методологии первого года:

- One explicit goal for future editions of the Web Almanac is to encourage even more inclusion of underrepresented and heterogeneous voices as authors and peer reviewers. + Одной из чёткой и конкретной целью будущих изданий Web Almanac является ещё большее вовлечение в него представителей меньшинств в качестве авторов и рецензентов.

- To that end, this year we’ve continued our author selection process: + С этой целью в этом году мы продолжили процесс отбора авторов:

  • - Previous authors were specifically discouraged from writing again to make room for different perspectives. + Предыдущим авторам специально не рекомендовалось писать снова, чтобы освободить место для различных точек зрения.
  • - Everyone endorsing {{ year }} authors were asked to be especially conscious not to nominate people who all look or think alike. + Всех, кто поддерживает авторов {{ year }} года, попросили быть особенно внимательными и не выдвигать людей, которые выглядят или думают одинаково.
  • - The project leads reviewed all of the author nominations and made an effort to select authors who will bring new perspectives and amplify the voices of underrepresented groups in the community. + Руководители проекта рассмотрели все кандидатуры авторов и постарались выбрать авторов, которые привнесут новые перспективы и усилят голоса недостаточно представленных групп в сообществе.

- We hope to iterate on this process in the future to ensure that the Web Almanac is a more diverse and inclusive project with contributors from all backgrounds. + Мы надеемся, что в будущем этот процесс будет совершенствоваться, чтобы сделать Web Almanac более разнообразным и инклюзивным проектом с участниками из всех слоев общества.

-

Analysis

+

Анализ

- In April and May {{ year }}, data analysts worked with authors and peer reviewers to come up with a list of metrics that would need to be queried for each chapter. In some cases, custom metrics were created to fill gaps in our analytic capabilities. + В апреле и мае {{ year }} года аналитики данных работали с авторами и рецензентами, чтобы составить список метрик, которые необходимо будет запросить для каждой главы. В некоторых случаях были созданы пользовательские метрики, чтобы заполнить пробелы в наших аналитических возможностях.

- Throughout May {{ year }}, the HTTP Archive data pipeline crawled several million websites, gathering the metadata to be used in the Web Almanac. These results were post-processed and saved to BigQuery. + В течение мая {{ year }} года HTTP Archive просканировал несколько миллионов веб-сайтов, собирая метаданные для использования в Web Almanac. Эти результаты были подвергнуты постобработке и сохранены в BigQuery.

- Being our fith year, we were able to update and reuse the queries written by previous analysts. Still, there were many new metrics that needed to be written from scratch. You can browse all of the queries by year and chapter in our open source query repository on GitHub. + На пятом году работы мы смогли обновить и повторно использовать запросы, написанные предыдущими аналитиками. Тем не менее было много новых метрик, которые нужно было написать с нуля. Вы можете просмотреть все запросы по годам и главам в нашем репозитории запросов с открытым исходным кодом на GitHub.

-

Interpretation

+

Обработка

- Authors worked with analysts to correctly interpret the results and draw appropriate conclusions. As authors wrote their respective chapters, they drew from these statistics to support their framing of the state of the web. Peer reviewers worked with authors to ensure the technical correctness of their analysis. + Авторы работали с аналитиками, чтобы правильно интерпретировать результаты и сделать соответствующие выводы. При написании соответствующих глав авторы опирались на эти статистические данные, чтобы подкрепить свое представление о состоянии Web. Рецензенты сотрудничали с авторами, чтобы добиться правильности анализа с технической точки зрения.

- To make the results more easily understandable to readers, web developers and analysts created data visualizations to embed in the chapter. Some visualizations are simplified to make the points more clearly. For example, rather than showing a full distribution, only a handful of percentiles are shown. Unless otherwise noted, all distributions are summarized using percentiles, especially medians (the 50th percentile), and not averages. + Чтобы сделать результаты более понятными для читателей, веб-разработчики и аналитики визуализировали их. Некоторые визуализации для большой ясности были упрощены. Например, вместо того, чтобы показывать полное распределение, показывается только несколько процентилей. Если не указано иное, все распределения суммируются с использованием процентилей, прежде всего медианы (50-й перцентиль), а не средних значений.

- Finally, editors revised the chapters to fix simple grammatical errors and ensure consistency across the reading experience. + Наконец, редакторы просмотрели главы, чтобы исправить простые грамматические ошибки и добиться согласованности во время чтения.

-

Looking ahead

+

Перспективы на будущее

- The {{ year }} edition of the Web Almanac is the fifth in what is mostly an annual tradition (we took a break in 2023) in the web community of introspection and a commitment to positive change. Getting to this point has been a monumental effort thanks to many dedicated contributors and we hope to leverage as much of this work as possible to make future editions even more streamlined. + Выпуск Web Almanac {{ year }} года - пятый в рамках ежегодной традиции (в 2023 году мы сделали перерыв) веб-сообщества, которая заключается в самоанализе и стремлении к позитивным изменениям. Достижение этой точки стало монументальным трудом благодаря многим самоотверженным участникам, и мы будем использовать как можно эффективнее результаты этой работы, чтобы сделать будущие выпуски ещё лучше.

{% endblock main_content %} From b0c2942defa16fbb31fd08c5f1c5cb863e297c87 Mon Sep 17 00:00:00 2001 From: ASafin Date: Wed, 28 May 2025 18:40:45 +0300 Subject: [PATCH 3/3] Adding contributors, fix spaces(linter happy) --- src/config/contributors.json | 10 ++++++++++ src/templates/ru/2024/base.html | 2 +- src/templates/ru/2024/methodology.html | 2 +- 3 files changed, 12 insertions(+), 2 deletions(-) diff --git a/src/config/contributors.json b/src/config/contributors.json index e0a74545b62..9aae24cb36c 100644 --- a/src/config/contributors.json +++ b/src/config/contributors.json @@ -4065,6 +4065,16 @@ }, "twitter": "rrlevering" }, + "ADSafin": { + "avatar_url": "105672331", + "github": "ADSafin", + "name": "Safin Ainur", + "teams": { + "2024": [ + "translators" + ] + } + }, "ksakae1216": { "avatar_url": "1982567", "github": "ksakae1216", diff --git a/src/templates/ru/2024/base.html b/src/templates/ru/2024/base.html index 1ec711174ad..5fdf4dad332 100644 --- a/src/templates/ru/2024/base.html +++ b/src/templates/ru/2024/base.html @@ -20,7 +20,7 @@

- В этом году мы сделали важный шаг к превращению Web Almanac в проект, управляемый сообществом, вдохновленного организационными моделями академических конференций. Раньше им занималась команда HTTP Archive, но в 2024 году введён формальный организационный комитет для расширения сотрудничества. Ключевые роли (генеральный председатель, председатель программного комитет) распределены для привлечения разнообразных участников. Эта модель управления укрепит фундамент Web Almanac и обеспечит его ежегодное издание. + В этом году мы сделали важный шаг к превращению Web Almanac в проект, управляемый сообществом, вдохновленного организационными моделями академических конференций. Раньше им занималась команда HTTP Archive, но в 2024 году введён формальный организационный комитет для расширения сотрудничества. Ключевые роли (генеральный председатель, председатель программного комитет) распределены для привлечения разнообразных участников. Эта модель управления укрепит фундамент Web Almanac и обеспечит его ежегодное издание.

diff --git a/src/templates/ru/2024/methodology.html b/src/templates/ru/2024/methodology.html index a57372e6c85..5a812ffa133 100644 --- a/src/templates/ru/2024/methodology.html +++ b/src/templates/ru/2024/methodology.html @@ -73,7 +73,7 @@

Краткий обз

О наборе данных

- Данные HTTP Archive обновляются ежемесячно. Для Web Almanac {{ year }} года, если в главе не указано иное, использовался набор данных за июнь {{ year }} года. Результаты доступны в publicly queryable BigQuery в таблицах `httparchive.all.*` с датой date = '2024-06-01'. + Данные HTTP Archive обновляются ежемесячно. Для Web Almanac {{ year }} года, если в главе не указано иное, использовался набор данных за июнь {{ year }} года. Результаты доступны в publicly queryable BigQuery в таблицах `httparchive.all.*` с датой date = '2024-06-01'.