Java é uma das linguagens de programação mais amplamente utilizadas.Aprender Java pode ajudá-lo a entender os fundamentos da programação, bem como conceitos. Em Java, o o valor padrão de char é “u0000” . Vamos entender esse conceitoem detalhe.
Os tópicos abaixo são abordados neste artigo:
- Por que saber o valor padrão dos tipos de dados é importante?
- O valor padrão de Char
- Verificando a Conclusão
- Compreendendo Unicode
Vamos começar.
Por que é importante saber o valor padrão dos tipos de dados?
Algumas linguagens de programação requerem a declaração das variáveis no programa antes de usá-las. Portanto, se você decidir usar uma dessas linguagens, deve estar familiarizado com o valor padrão dos diferentes tipos de dados, pois nem sempre é possível inicializar uma variável antes de usá-la em um programa.No momento em que falamos de 2019, existe uma enorme quantidade de linguagens de programação, desde linguagens primitivas até linguagens de última geração. Esses idiomas podem ser classificados em 2 categorias da seguinte forma:
- Linguagem digitada estaticamente
- Linguagem digitada dinamicamente
Agora vamos entrar em detalhes sobre essas linguagens.
Linguagem digitada estaticamente
Em palavras simples, essas linguagens consideram os tipos de dados seriamente e, portanto, são declaradas como linguagens estritas. Ao usar S linguagens taticamente digitadas, uma coisa importante a lembrar é que o tipo de dados de todas as variáveis usadas em um programa é identificado em tempo de compilação. Em outras palavras, verificação de tipo ocorre no momento da compilação. Portanto, um programador precisa especificar o todas as vezes ao declarar um em um programa. Isso surge a necessidade de saber os valores padrão dos tipos de dados comumente usados, pois nem sempre podemos atribuir valores personalizados a uma variável no momento da declaração.
o que .innerhtml faz
Exemplo Java, C, C ++
Exemplo de tipagem estática -
char FirstVariable
Linguagem digitada dinamicamente
Em linguagens de tipagem dinâmica, o tipo de dados de uma variável é verificado durante tempo de execução . Portanto, não é necessário mencionar o tipo de dados de uma variável no momento da declaração. Devido a essa flexibilidade, o tipo de dados armazenados em uma variável pode ser alterado com o tempo. Ao lidar com linguagens digitadas dinamicamente, saber os valores padrão não é importante.
Exemplo - Pitão
Exemplo de tipagem dinâmica -
FirstVariable = 'Olá, esta é uma variável do tipo String' print (type (FirstVariable)) a = 10 b = 20 FirstVariable = a + b print (type (FirstVariable)
Resultado:
# Saída da primeira instrução de impressão # Saída da segunda instrução de impressão
Nota : A partir da saída acima, podemos concluir que, inicialmente, o tipo de variável FirstVariable era String. Depois de atribuir um valor inteiro à mesma variável, seu tipo mudou de String para Integer.
diferença entre substituir e sobrecarregar
Agora, vamos ver qual é o valor padrão de char em Java com a ajuda de um exemplo.
O valor padrão de 'Char'
Desde a é uma linguagem com tipagem estática, as variáveis devem ser declaradas antes de serem usadas em um programa. Quando declaramos uma variável sem atribuir nenhum valor inicial personalizado, ela vem com um valor padrão. O valor padrão de diferentes tipos de dados é diferente. Para saber mais sobre os vários tipos de dados e seus valores padrão, consulte este .
Antes de saber o valor padrão de um determinado tipo de dados, precisamos saber se é um tipo de dados primitivo ou definido pelo usuário. Ter essas informações nos ajuda a saber onde podemos encontrar mais informações sobre o tipo de dados.Como tipos de dados primitivos já estão definidos por uma linguagem de programação, podemos encontrar mais informações sobre isso na documentação fornecida pela linguagem de programação que estamos usando.
Além disso, como estamos preocupados com o valor padrão de Caracteres em Java, e desde Caracteres é um tipo de dados primitivo, podemos nos referir ao Java Documentação . Para obter mais informações sobre tipos de dados definidos pelo usuário, você pode consultar a documentação fornecida pelo desenvolvedor dessa classe.
Caracteres abreviação para um personagem é um único Unicode personagem de tamanho 16 bits, que pode conter um único valor entre ''.
Sintaxe:
DataType Variablename = 'value'
Exemplo :
char HelloWorld = 'a'
Verificando a Conclusão
O valor mínimo que char pode conter é ‘ u0000 ‘Que é um valor Unicode denotando‘ nulo ‘Ou 0 em decimal. O valor máximo que pode conter é ‘ uffff ‘Ou 65.535 inclusive . O valor mínimo que é‘U0000’ também é o valor padrão de char. Você pode estar se perguntando o que 'u0000' realmente significa? Por que o valor padrão não é ‘a’ ou ‘b’ ou qualquer outro caractere, por que apenas ‘u000’ não se preocupe, cobriremos todas as suas dúvidas na próxima metade deste post. Primeiro, vamos tentar imprimir uma variável do tipo char e vamos dividir este cenário em 2 casos:
No primeiro caso, primeiro, declare uma variável do tipo char e imprima seu valor.
public class JavaDefaultValues {char DeclaredVariable // Declarando a variável 'DeclaredVariable' public static void main (String [] args) {JavaDefaultValues DefaultValues = new JavaDefaultValues () // Criando o objeto da classe JavaDefaultValues System.out.println ('Value of DeclaredVariable =' + DefaultValues.DeclaredVariable) // Imprimindo valor de DeclaredVariable}}
Resultado:
Valor de DeclaredVariable =
Na saída, podemos ver um espaço em branco após ‘=’ que denota um caractere nulo.
No segundo caso, vamos declarar uma variável do tipo Char e inicializá-la com o valor padrão e imprimir seu valor.
public static void main (String [] args) {JavaDefaultValues DefaultValues = new JavaDefaultValues () // Criando objeto da classe JavaDefaultValues char InitialisedVariable = 'u0000' // Inicializando a variável 'InitialisedVariable' System.out.println ('Value of DeclaredVariable =' + DefaultValues.DeclaredVariable) // Imprimindo valor de DeclaredVariable System.out.println ('Valor de InitialisedVariable =' + InitialisedVariable) // Imprimindo valor ppf InitialisedVariable}
Resultado:
Valor de DeclaredVariable = Valor de InitialisedVariable =
Pela saída acima, podemos ver que recebemos uma saída semelhante.
System.out.println (DefaultValues.DeclaredVariable == InitialisedVariable)
Depois de adicionar a seguinte linha de código que compara o valor de nossas 2 variáveis, recebemos ‘ verdade 'Na tela de saída que verifica nossa conclusão.
Nós podemos ver ' verdade 'Na tela de saída, que é um resultado da declaração na qual comparamos o valor de 2 variáveis. Você pode tentar isso sozinho. O código de amostra é fornecido abaixo.
public static void main (String [] args) {JavaDefaultValues DefaultValues = new JavaDefaultValues () // Criando objeto da classe JavaDefaultValues char InitialisedVariable = 'u0000' // Inicializando a variável 'InitialisedVariable' System.out.println ('Value of DeclaredVariable =' + DefaultValues.DeclaredVariable) // Imprimindo valor de DeclaredVariable System.out.println ('Valor de InitialisedVariable =' + InitialisedVariable) // Imprimindo valor ppf InitialisedVariable System.out.println (DefaultValues.DeclaredVariable == InitialisedVariable) // Verificando se os valores são iguais } }
Com isso, vamos nos aprofundar neste artigo para entender o conceito de Unicode.
Compreendendo Unicode
Unicode é um padrão de codificação internacionalque é usado com diferentes idiomas. Com a ajuda do Unicode, cada dígito, letra ou símbolo é designado como um valor numérico exclusivo que se aplica a diferentes plataformas e programas. Primeiro, vamos falar sobre o que é codificação de caracteres? Por que precisamos de sistemas de codificação comuns? Unicode é o único padrão de codificação disponível? Qual é a diferença entre ASCII e Unicode?
Quando caracteres, letras, símbolos de palavras são usados em um programa, eles não podem ser armazenados no dispositivo digital como estão. Primeiro, ele é convertido em um valor numérico ou hexadecimal usando a codificação de caracteres. Se meu laptop usa um sistema de codificação e meu outro desktop usa um sistema de codificação diferente, o texto visível em meu laptop pode aparecer de forma diferente em meu desktop.
abstração em c ++
Portanto, é importante ter um sistema de codificação comum. Inicialmente, PARA mericano S tandard C ode para Eu informação Eu nterchange ASCII foi usado como um esquema de codificação padrão, mas só conseguiu abranger 128 caracteres (0 - 127), que incluem o idioma inglês, pontuação e alguns outros símbolos comumente usados. Você pode dar uma olhada na tabela ASCII Aqui . Este esquema não foi suficiente para codificar caracteres de todos os idiomas. Nesse momento, o Unicode entra em ação. O Unicode pode abranger 128.000 caracteres. Ele designa valores hexadecimais para caracteres diferentes. Por exemplo, vimos que o valor padrão de char é ‘ u0000 'Este é um valor hexadecimal, quando convertemos esse valor para decimal obtemos' 0 '. Da mesma forma, o valor máximo de char é ‘ uffff 'Se convertermos este valor hexadecimal em valor decimal, obteremos 65.535, que vimos anteriormente. Como o valor máximo que char pode conter é ‘ uffff ’, Não pode representar todos os caracteres Unicode. O esquema Unicode cobre todos os 128 caracteres da tabela ASCII com a mesma designação.
Com isso, chegamos ao final deste artigo sobre o Valor Padrão de Char em Java. Espero que este artigo tenha sido informativo para você.
Confira o pela Edureka, uma empresa de aprendizagem online confiável com uma rede de mais de 250.000 alunos satisfeitos espalhados por todo o mundo. Estamos aqui para ajudá-lo em todas as etapas de sua jornada, para nos tornarmos, além dessas perguntas da entrevista java, um currículo que é projetado para estudantes e profissionais que desejam ser um desenvolvedor Java.
Tem alguma questão para nós? Mencione isso na seção de comentários deste artigo “Valor padrão do caractere em Java” e entraremos em contato com você o mais breve possível.