Questão Que sentido faz para que a “nitidez” seja ajustável em um monitor?


Monitores modernos geralmente têm uma configuração de "nitidez".

Mas eu realmente não entendo como faz sentido que tal cenário exista.

O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo?
Por exemplo, o sistema operacional pode solicitar ao monitor todos os quadros para exibir um bitmap específico de 1920 × 1080 × 32.

Mas ajustar "nitidez" significa permitir que os valores de pixels próximos afetem uns aos outros, o que parece implicar que a entrada não está mais sendo representada fielmente ... significando que não exibiria mais o que é solicitado a exibir, o que não faz sentido. Então, eu simplesmente não vejo onde isso deixa qualquer espaço lógico para ajuste de nitidez.

Onde exatamente o grau de liberdade para ajustar a nitidez vem?


83


origem


Engraçado, da última vez que vi nitidez estava em um CRT. Naquela época, você pode controlar o tempo entre os pulsos de vermelho, verde e azul para alinhá-los adequadamente. Se fosse um pouco rápido demais ou muito devagar, os três fósforos ficariam meio sujos. Se você os alinhasse corretamente, a imagem era a mais nítida possível. Obviamente, isso não se aplica a monitores modernos. - Todd Wilcox
Você está colocando muitas respostas que não respondem à sua pergunta, o que pode ajudar se você disser por que elas não respondem à pergunta. Vale a pena notar que o monitor não é exigido por lei para exibir o que o software pede. Poderia, por exemplo, alterar cada terceiro pixel para verde ou invertê-los. Assim, a razão pela qual o monitor pode "fuzzify" imagens é porque os clientes suficientes queriam, poderia facilmente esticar a imagem, mas ninguém queria isso, então eles não o fazem. Portanto, existem apenas dois tipos de respostas: como isso é feito tecnicamente ou por que as pessoas querem isso? - Richard Tingle
@RichardTingle: Suponho que a resposta para "por que as pessoas querem isso" poderia também responder à minha pergunta, sim. Embora eu esteja mais tentando entender o sentido que isso faz de uma perspectiva técnica. Para dar um exemplo, na verdade faz sentido para mim ter parâmetros de nitidez para exibir fotos RAW, porque o mapeamento dos dados do sensor para um pixel é inerentemente um problema sub-determinado (ou seja, não tem uma solução única) com graus de liberdade como nitidez, nível de ruído, etc. Mas bitmaps estamos pixels, então onde está o espaço para ajustar coisas como "nitidez"? - Mehrdad
@ToddWilcox: Pelo que vale, pelo menos os monitores HP EliteDisplay (LCD) têm uma configuração de "Nitidez" e funciona mesmo com uma entrada digital (ou seja, não VGA). - sleske
Posso acrescentar que precisei ajustar "Nitidez" para compensar os usuários que têm óculos ou contatos em alguns casos. - PhasedOut


Respostas:


Por https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , "nitidez" em um LCD é parte do pós-processamento.

Mesmo excluindo o reescalonamento / upsampling (por exemplo, se você tentar exibir um sinal SD em um monitor HD) e as complexidades da calibração de cores, o monitor nem sempre exibe a imagem como determinado. Este é um efeito colateral infeliz do marketing.

Os fabricantes de monitores gostam de distinguir seus produtos de outros produtos. Do ponto de vista deles, se você alimentar o mesmo sinal para o monitor deles e um concorrente mais barato, e parecer idêntico, isso é mau. Eles querem que você prefira o monitor deles. Então, há um monte de truques; geralmente fora da caixa, o brilho e o contraste são enrolados além do que é sensato. A "nitidez" é outro truque. Como você faz a sua imagem parecer mais nítida do que um concorrente que está exibindo a imagem exatamente como foi enviada? Enganação.

O filtro "nitidez" é efetivamente usado no Photoshop e em programas semelhantes. Aumenta as arestas para que elas atraiam os olhos.


75



+1 obrigado, eu acho que você está chegando perto de responder ao cerne da minha pergunta! Com base na sua resposta, parece que a resposta direta seria "não, não faz qualquer sentido científico, mas eles não se importam e fazem isso de qualquer maneira, porque ajuda no marketing". - Mehrdad
A maioria dos LCDs que vi apenas permitem alterar a nitidez dos sinais analógicos, o que faz todo o sentido, claro. Conecte a tela através de DVI / HDMI e você não terá nenhum controle de nitidez (na verdade, você perde a maioria dos controles de sinal, já que eles só fazem sentido para sinais não perfeitos). Também é comum em LCDs que são monitores híbridos de monitor / televisão - já que os televisores possuem esses recursos (para melhor ou para pior), o mesmo acontece com esses monitores para manter a paridade de recursos. Se você acha que é somente marketing sem sentido, tente assistir a um VHS em uma tela que assume um sinal de pixel perfeito: - Luaan
Não é só marketing. Os "pixels" não estão em linhas retas, nem são unidades únicas como o nome do pixel sugere. - HackSlash
O monitor nunca pode exibir a imagem como determinado, e não é por causa da fabricação. Cores, brilho, pretos, resoluções - todos variam de monitor para monitor. Um sinal digital pode dizer "pixel de luz x com 50% de brilho". O que é 50% de brilho? Ou o que é 100 de 200 brilho? Depende totalmente do hardware e programação do monitor. O que é azul? ou amarelo? É por isso que existem ajustes para começar. Assim, um usuário pode fazer com que a imagem pareça do jeito que ela acha que deveria parecer ou aproveitar. A ideia de que um sinal é representado 100% com precisão em qualquer monitor é ridícula. - Appleoddity
Alguns dos comentários são tecnicamente corretos (como "O monitor nunca pode exibir a imagem como fornecida"), mas a resposta está correta de que o que está acontecendo é a filtragem (e isso é feito por engano). Além disso, está filtrando com alguns coeficientes negativos, o que inerentemente introduz artefatos hediondos; Uma vez que você percebe isso, você nunca será capaz de ver de novo. :-) - R..


Pergunta Original: De onde vem exatamente o grau de liberdade para ajustar a nitidez?

A nitidez está diretamente relacionada ao tipo de sinal e conteúdo que você está visualizando. Os filmes geralmente ficam melhores quando a nitidez é reduzida e os pixels podem ficar um pouco juntos. Por outro lado, um monitor de computador precisaria de alta nitidez para texto nítido e imagens nítidas. Os videogames são outro exemplo em que maior nitidez é melhor. Sinais de TV de baixa qualidade também podem ser aprimorados com controles de nitidez.

Sendo monitores podem ser usados ​​para exibir uma tela de computador, ou filme, ou praticamente qualquer fonte de vídeo, a nitidez ainda é uma configuração útil.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: O OP indicou nos comentários que isso não responde à pergunta.

OP: Onde no problema há espaço para algum ajuste? Como se   Eu digo a você x = 1 e y = 2, e então digo "oh, e eu quero x - y = 3".   Isso não faz sentido.

O processo de converter uma imagem / vídeo ao vivo em sinais analógicos / digitais elétricos, transmitir em algum meio e recriar essa imagem em um dispositivo de exibição NUNCA é um processo de 1 para 1.

Ruído de sinal, perda de compressão, variações de fabricação e equipamentos, tipo de cabeamento / sinal e outros fatores entram em jogo. Todos os ajustes em um monitor são projetados para trabalhar juntos para dar ao usuário final a melhor experiência de visualização de qualidade - de acordo com o usuário final. A interpretação é totalmente subjetiva.

OP: Esta resposta não responde à pergunta de por que o espectador   ajustar a nitidez quando isso já está definido pelo conteúdo   criador (seja Spielberg ou Excel).

Se quisermos seguir essa lógica, por que os monitores precisam ou têm QUALQUER ajuste? A resposta é que o que vemos na tela não é uma representação 100% precisa dos dados originais.


66



Isso não responde a minha pergunta ... Eu não estava perguntando o que é a nitidez. - Mehrdad
@Martijn: Essa não foi a minha pergunta ... - Mehrdad
@ Mehrdad Você pode reformular sua pergunta, então? Parece que vários respondentes (e seus eleitores) não entendem do jeito que você faz. Eu também tomei isso como "por que LCDs suportam nitidez?" (que é respondida por este), ou talvez "como os LCDs suportam a nitidez?" (que é respondido por Aganju). Se a sua pergunta não é nenhuma dessas, você deve esclarecê-la. - Angew
@ Mehrdad eu realmente achei mais perto de "como os LCDs suportam nitidez", o que foi explicado por Aganju, mas ainda rejeitado por você. - Angew
O cabo e o sinal nos monitores modernos são digitais. Ou recebe transmissão perfeita ou dados ruins. Não há perda ou degradação de sinal possível como em um sinal analógico. Dentro do monitor, o sinal digital é convertido em algo que o painel entende e que geralmente é digital também agora. A única parte analógica é os níveis de brilho de cada elemento e são acionados por um valor digital. - HackSlash


Você está certo de que, para uma reprodução perfeita na entrada, o monitor deve simplesmente apresentar cada pixel à medida que é entregue.

No entanto, seus olhos (e seu cérebro) não vêem os pixels como entidades separadas, eles vêem uma imagem formada a partir de pixels. Dependendo do que representa, uma imagem parece "melhor" (mais atraente) se os parâmetros forem intencionalmente "falsificados".

A nitidez normalmente aumenta o contraste nas bordas de mudança de cor, por exemplo, uma letra neste texto é representada por linhas de pixels, uma linha pode parecer (simplificada) 2-2-2-2-7-7-7-2-2- 2-2 em que 2 é cinza claro e 7 é cinza escuro. Aumentar a 'nitidez' aumenta a queda de brilho na borda, de modo que os dois últimos antes dos primeiros 7 ficam ainda mais claros (= 1), e os primeiros 7 depois dos últimos 2 ficam ainda mais escuros (= 8). repita para a outra extremidade, e você terá 2-2-2-1-8-7-8-1-2-2-2. Isso vai parecer muito mais "afiado" para os seus olhos.
Isso é feito em ambas as dimensões e um pouco mais sofisticado, mas isso deve explicar a idéia básica.

Edit: Eu pensei que eu deixei isso claro na minha resposta, mas o OP alega que ele não entendeu:
Pergunta: "que sentido faz" -> Resposta: parece mais nítido para o seu cérebro.
Muitas pessoas querem isso; se você não se importa, não use.


35



@ Mehrdad Então, o que é sua pergunta? Você obteve uma resposta para "o que o senso [de usabilidade] faz para que a nitidez seja ajustável em um monitor" da Appleoddity. Você obteve uma resposta para "que sentido [tecnológico sábio] faz a nitidez ser ajustável em um monitor" da Aganju. Se nenhuma dessas perguntas for sua, você precisará reescrevê-la para que a pergunta feita corresponda à sua pergunta esperada. - Birjolaxew
@Mehrdad De seus comentários, sua pergunta parece ser "por que monitores podem mudar a nitidez quando o computador já diz exatamente o que exibir" - que é respondido pela Appleoddity. - Birjolaxew
Esta resposta é funcionalmente a mesma que a resposta dada pelo pjc50. Ambos estão errados. - HackSlash


A resposta é que um pixel não é o que você pensa que é. Não há uma correlação de 1 para 1 entre os pixels digitais e os pixels físicos devido a "Subpixel Rendering". A maneira como as cores são exibidas é diferente em cada monitor, mas a maioria dos monitores LCD possui elementos VERMELHOS, VERDES e AZUL distintos organizados em um triângulo. Alguns, adicionalmente, têm um pixel branco fazendo um quad de elementos por "pixel".

enter image description here

Assim, nem todos os layouts são criados iguais. Cada layout particular pode ter uma "resolução visual" diferente, limite de função de transferência de modulação (MTFL), definido como o maior número de linhas em preto e branco que podem ser renderizadas simultaneamente sem aliasing cromático visível.

Os drivers de monitor permitem que os representantes ajustem corretamente suas matrizes de transformação de geometria para calcular corretamente os valores de cada plano de cor e obter o melhor resultado da renderização de subpixel com o menor alias cromático.

A "nitidez" do monitor reduz o algoritmo de mesclagem natural usado para fazer com que as linhas pareçam contíguas quando não estão. Aumentar a nitidez aumentará o aliasing cromático enquanto produz linhas mais limpas. Reduzir a nitidez dá-lhe uma melhor mistura de cores e suaviza as linhas que caem entre os pontos de subpixel.

Para informações mais detalhadas, consulte este artigo: https://en.wikipedia.org/wiki/Subpixel_rendering


30





Você está absolutamente certo que a definição de nitidez em seu monitor "distorce" a imagem dos dados com precisão de pixels enviados pelo computador (ou o que estiver conectado à outra extremidade do cabo de vídeo). No entanto, permite que o usuário melhore sua experiência visual se a nitidez dos dados precisos em pixels enviados não corresponderem à nitidez desejada na imagem que estão visualizando.

Então o monitor não está fazendo isso:

  1. Receber bitmap do cabo
  2. Renderizar bitmap
  3. Ir para 1.

mas isso:

  1. Receber bitmap do cabo
  2. Modifique o bitmap com base nas preferências do usuário
  3. Renderizar bitmap
  4. Ir para 1.

Assim, o grau de liberdade para ajustar a nitidez é explicitamente adicionado pelo fabricante do monitor, com o objetivo de melhorar a experiência do usuário.


17



O comentário de slebetman sobre sua própria resposta parece confirmar isso como uma demanda do usuário: "Eu apenas pesquisei o ajuste de nitidez do LCD caso houvesse alguma tela LCD. O que eu encontrei foram perguntas hilárias de pessoas que queriam ajustar a nitidez nas telas de LCD eles foram introduzidos pela primeira vez " - LVDV


O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo?   Por exemplo, o sistema operacional pode solicitar ao monitor todos os quadros para exibir um bitmap específico de 1920 × 1080 × 32.

Não é assim que o VGA funciona. No nível do monitor, não há pixels.

Como os displays tradicionalmente funcionam antes da era do LCD são:

  1. Software pede ao driver de dispositivo para exibir uma imagem de bitmap

  2. O driver de dispositivo divide a imagem em três formas de onda para R, G e B. Isso mesmo, formas de onda! Exatamente como formas de onda de áudio. Agora, essas formas de onda têm um formato específico porque, enquanto o áudio é 1d, as imagens são 2d.

  3. O sinal analógico para linhas na tela é enviado para o monitor.

O monitor nunca vê um pixel, ele só vê linhas.

  1. O monitor cospe elétrons movendo-se quase à velocidade da luz a partir de três canhões de elétrons e o feixe é desviado pelo controle do grupo de eletroímãs, fazendo com que eles pintem a tela inteira.

Aqui é onde entra o controle de nitidez.

Devido às tolerâncias de fabricação, os feixes de elétrons quase nunca convergem corretamente e produzem imagens borradas diretamente da linha de montagem. Nos velhos tempos, cabe a você, a pessoa que comprou o monitor, ajustar a nitidez em casa. Mais tarde, mais modernos desses antigos displays têm processo de ajuste automático na fábrica, mas o ajuste de nitidez ainda deve ser construído para que o processo funcione.

Então a resposta é muito simples. O ajuste de nitidez está lá para garantir que a imagem nos monitores seja nítida.


12



Eu apenas pesquisei o ajuste de nitidez do LCD caso houvesse alguma tela LCD. O que eu encontrei foram perguntas hilárias de pessoas que queriam ajustar a nitidez nas telas de LCD quando foram introduzidas pela primeira vez - slebetman
A tela LCD que eu uso tem um parâmetro de nitidez, que é o que me fez fazer essa pergunta. O pouco sobre monitores CRT é bom, mas infelizmente não parece relevante. - Mehrdad
@ Mehrdad É uma tela LCD VGA ou DVI / HDMI puro? - slebetman
Eu uso VGA, mas acredito que também suporta DVI. Não está claro para mim o que o uso de formas de onda, em vez de sinais digitais, tem a ver com deixar que o ajuste seja preciso. (?) - Mehrdad
Não há pixels nas formas de onda, apenas linhas; uma certa quantidade de desfoque é inevitável quando o sinal é transmitido. Normalmente não é visível, mas em HD eu geralmente posso dizer a diferença entre um sinal VGA e um sinal HDMI / DVI / DP. - pjc50


Em uma TV (digital), a nitidez controla um filtro de pico que aprimora as bordas. Isso não é tão útil em um monitor, se usado como um monitor de computador.

No século anterior, em um monitor CRT analógico de ponta, a nitidez pode ter controlado a voltagem de foco da arma eletrônica. Isso afeta o tamanho do ponto com o qual a imagem é desenhada. Defina o tamanho do ponto muito pequeno (muito nítido) e a estrutura da linha fica muito visível. Também pode haver interferência "Moiré" irritante na estrutura da máscara de sombra. A configuração ideal depende da resolução (taxa de amostragem) da imagem, já que muitos monitores CRT eram capazes de múltiplas resoluções sem escala (multi-sync). Defina apenas afiada o suficiente.

Os televisores CRT de última geração possuíam a modulação Scan Velocity, em que o feixe de varredura é desacelerado em torno de uma borda vertical, e também filtros de pico horizontal e vertical e talvez um circuito de melhoria transitória horizontal. Nitidez pode ter controlado qualquer um ou todos.

A nitidez em geral aumenta as bordas, tornando o lado escuro da borda mais escuro, o lado brilhante mais brilhante e o meio da borda mais inclinado. Um filtro típico de pico calcula um diferencial de 2ª ordem, no processamento digital, p. (-1,2, -1). Adicione uma pequena quantidade desse pico ao sinal de entrada. Se você cortar os overshoots, reduz-se a "melhoria transitória".

Em alguns dispositivos digitais, a nitidez de um scaler pode ser controlada, por ex. nos meus receptores digitais de TV por satélite. Isso define a largura de banda dos filtros polifásicos de um scaler, que converte de uma resolução de origem para a resolução de exibição. A escala não pode ser perfeita, é sempre um compromisso entre artefatos e nitidez. Definir isso muito afiado e irritante contorno e aliasing são visíveis.

Essa pode ser a resposta mais plausível para sua pergunta, mas apenas se o monitor estiver sendo dimensionado. Não faria nada por um modo 1: 1 sem escala.

Fonte: 31 anos de experiência em processamento de sinais para TV.


5



Este post é 100% correto para tecnologia analógica como CRTs. O OP está perguntando sobre a nitidez em um display LCD totalmente digital. Ele pensa, como você faz, que "não faria nada em um modo 1: 1 sem escala", mas na verdade funciona. Veja minha resposta sobre a renderização de subpixel em telas LCD. - HackSlash
Não tenho conhecimento de nenhum monitor que esteja aplicando a renderização de subpixel, exceto talvez uma tela portátil da Pentile. Geralmente é feito pelo software de renderização de fonte ClearView no PC. - StessenJ
Esta tese de PhD trata muito bem a renderização de subpixel, no Cap. 3: pure.tue.nl/ws/files/1861238/200612229.pdf . A renderização essencialmente de subpixel lida com um erro de convergência de cor de +/- 1/3 de pixel. Os CRTs não precisam disso, é feito implicitamente pela máscara de sombra (amostragem). - StessenJ
Nesse artigo, o processo de montagem de subpixels em um "pixel" coerente é chamado de "reconstrução espacial". Eles chamam o "pixel" de "abertura" ao falar sobre os subpixels trabalhando juntos. Os subpixels são fósforos coloridos e são claramente mostrados na página 28. Esses fósforos nem sempre são usados ​​como um conjunto claro. Você poderia usar o fósforo vermelho de um conjunto ou qualquer conjunto adjacente, dependendo da "nitidez" das linhas. - HackSlash


Não faz sentido. Ou pelo menos não na maioria dos monitores LCD. Você quase sempre quererá que sua "nitidez" seja definida como 0, dependendo do monitor ou da TV (alguns irão borrar o sinal em 0, então a configuração real não filtrada pode estar em algum lugar no meio), caso contrário, será aplicada uma aprimoramento de borda filtro, o que torna o lado mais escuro de uma borda mais escuro e o lado mais claro mais claro. Isso é especialmente notável em desenhos animados e texto. Sua milhagem pode variar, mas acho que parece ruim em quase todos os casos.

Este é um filtro irreversível e com perdas que você provavelmente não desejará ativar. Seu computador está enviando dados com pixels perfeitos, portanto, a "nitidez" e os filtros indefinidos geralmente são indesejáveis.

Observe também que o filtro / definição de "nitidez" é inadequado. É impossível tornar uma imagem mais nítida (ou seja, ter mais detalhes), apenas menos detalhada. A única maneira de obter uma imagem mais nítida é usar uma imagem de origem de definição mais alta.


4