Может ли 10-битное соединение монитора сохранять все тоны в 8-разрядных градиентах sRGB на широкоэкранном мониторе?

Этот вопрос касается управления цветом и использования более высокой глубины цвета, 10 бит на канал (всего 30 бит, что приводит к 1.07 миллиардам цветов или 1024 оттенкам серого, иногда называемому «глубоким цветом») по сравнению со стандартным из 8 бит на канал (всего 24 бита, 16,7 млн. цветов, 256 оттенков серого, иногда называемых «истинным цветом»). Не путайте с «32-битным цветом», который обычно относится к стандартному 8-битовому цвету с дополнительным каналом («альфа-канал») для прозрачности (используется для достижения таких эффектов, как полупрозрачные окна и т. Д.).

Можно предположить, что на месте:

1: широкоэкранный монитор, поддерживающий 10-битный вход. Кроме того, можно предположить, что монитор был откалиброван в соответствии с его собственной гаммой и что был создан профиль цвета ICC.

2: графическая карта, поддерживающая 10-битный выход (и подключается к монитору через DisplayPort).

3: Драйверы для видеокарты, поддерживающие 10-битный вывод.

Если бы были применены приложения, поддерживающие 10-битные выходные и цветовые профили, я бы ожидал, что они будут отображать изображения, которые были сохранены с использованием разных цветовых пространств правильно. Например, изображение sRGB и adobeRGB должно отображаться правильно. Если изображение sRGB было сохранено с использованием 8 бит на канал (почти всегда в случае), тогда 10-битный путь сигнала гарантирует, что тональные градиенты не будут потеряны при преобразовании из sRGB изображения в собственное цветовое пространство монитора ,

Например: если изображение содержит чистый пиксель в 8 бит (255,0,0), соответствующее значение в 10 бит будет (1023,0,0). Однако, поскольку монитор имеет большее цветовое пространство, чем sRGB, отправка сигнала (1023,0,0) на монитор приведет к слишком насыщенному красному краю. Поэтому, согласно цветовому профилю ICC, сигнал преобразуется в другое значение с меньшей красной насыщенностью, например (987,0,0). Так как все еще осталось много уровней между 0 и 987, все 256 значений (0-255) для красного цвета в цветовом пространстве sRGB файла могут быть однозначно отображены на 10-битные значения с цветовой коррекцией в собственном цветовом пространстве монитора.

Однако, если преобразование было выполнено в 8 бит, (255,0,0) будет переведено на (246,0,0), и теперь будет только 247 доступных уровней для красного канала вместо 256, что приведет к ухудшению отображаемых Качество изображения.

Мой вопрос: как это работает на Ubuntu? Предположим, что я использую Firefox (который поддерживает цвет и использует профили цветов ICC). Получаю ли я 10-битную обработку, сохраняя при этом все уровни 8-битного изображения? Какова ситуация, например, для других приложений, особенно для фотоприложений, таких как Shotwell, Rawtherapee, Darktable, RawStudio, Photivo и т. Д.?

На данный момент Ubuntu отличается от других операционных систем (Linux и других)?