Gjør som tusenvis av andre bokelskere
Abonner på vårt nyhetsbrev og få rabatter og inspirasjon til din neste leseopplevelse.
Ved å abonnere godtar du vår personvernerklæring.Du kan når som helst melde deg av våre nyhetsbrev.
Considerando la crescente domanda di ricerca nell'area della salute, nasce l'esigenza di strumenti in vari settori, come la fisioterapia. Questo libro presenta giochi seri incentrati sulle aree della salute e dell'istruzione. Nel Capitolo 1, viene presentato un gioco interattivo per supportare esercizi fisioterapici utilizzando Kinect e dispositivi mobili. Come metodologia, sono state utilizzate le risorse della realtà virtuale e aumentata, che consentono la visualizzazione, l'interazione e la simulazione tridimensionale delle immagini. Si prevede quindi di contribuire alla motivazione dei pazienti attraverso le innovazioni tecnologiche, generando un ambiente per la realizzazione della fisioterapia più piacevole e armonioso, oltre a cercare di promuovere l'efficacia del trattamento.
Compte tenu de la demande croissante de recherche dans le domaine de la santé, le besoin d'outils dans divers secteurs, tels que la physiothérapie, se fait sentir. Ce livre présente des jeux sérieux axés sur les domaines de la santé et de l'éducation. Le chapitre 1 présente un jeu interactif qui soutient les exercices de physiothérapie en utilisant Kinect et des appareils mobiles. Comme méthodologie, les ressources de la réalité virtuelle et augmentée ont été utilisées, ce qui permet la visualisation, l'interaction et la simulation tridimensionnelle d'images. Ainsi, il est prévu de contribuer à la motivation des patients grâce à des innovations technologiques, en générant un environnement pour la réalisation de la physiothérapie plus agréable et harmonieux, en plus de chercher à promouvoir l'efficacité du traitement.
Considering the growing demand for research in the health field, the need for tools in various sectors, such as physiotherapy, arises. This book presents serious games for health and education. In Chapter 1, there is an interactive game to support physiotherapeutic exercises using Kinect and mobile devices. As a methodology, the Virtual and Augmented Reality resources were used, which enable visualization, interaction, and three-dimensional simulation of images. Thus, it is expected to contribute to the motivation of patients through technological innovations, generating a more pleasant and harmonious environment for the performance of physiotherapy, besides seeking to promote the effectiveness of the treatment.
Com estrutura didática e contribuições significativas, a principal qualidade de Algoritmos e programação de computadores é tornar o processo de aprendizagem de programação de computadores menos traumático para o estudante da disciplina. Em cursos de Computação e Informática, a maior dificuldade encontrada por estudantes continua sendo o primeiro contato com o tema. A razão principal é que, nesse momento, o aluno é solicitado, pela primeira vez, a pensar de maneira detalhada sobre os passos necessários para a solução de um problema e, ainda, a construir uma abstração que represente estes passos de forma que possam ser processados por um computador. Enfrentar o desafio de ¿ensinar¿ programação é o diferencial deste livro. Nele, cada tema é trabalhado a partir de uma situação-problema, passando pela resolução da situação, ampliação do tópico, conceituação e aplicação em diversas linguagens de programação e, por fim, pelos exercícios de fixação. Partindo de uma linguagem dialógica, que mescla texto simples e muitas imagens, o conteúdo com a resolução de exercícios tem como objetivo tornar a aprendizagem mais fácil e, até mesmo, prazerosa.
No mundo tecnológico e globalizado em que se vive atualmente, é necessário sempre implementar novas soluções a fim de amenizar os problemas e facilitar a vida da sociedade, como a determinação de percursos mais curtos durante a realização de viagens, por exemplo. Nesta linha de raciocínio, o algoritmo de Dijkstra é o mais famoso dos algoritmos para cálculo de caminho de custo mínimo entre vértices de um grafo e, na prática, o mais empregado. Logo, este trabalho tem como objetivo aplicar o algoritmo de Dijkstra com a finalidade de obter a otimização da trajetória entre vários municípios do estado brasileiro de Minas Gerais.
A automação compreende em técnicas aplicadas em um determinado processo para torná-lo mais eficiente e produtivo, ágil e eficiente, minimizando a interferência humana sobre estes processos. A criação de sistemas automáticos permite que equipamentos ou dispositivos sejam controlados por meio de dispositivos eletroeletrônicos como microcomputadores, dispositivos móveis, entre outros. Com as tecnologias em crescente evolução o ser humano sente cada vez mais necessidade na integração de tecnologias para que dispositivos simples possam suprir as necessidades mais variadas, substituindo diversos componentes utilizados para a integração com o ambiente por um controle centralizado capaz de manipular diversas variáveis no ambiente. Robótica é um ramo educacional e tecnológico que engloba computadores, robôs e computação, que trata de sistemas compostos por partes mecânicas automáticas e controladas por circuitos integrados, tornando sistemas mecânicos motorizados, controlados manualmente ou automaticamente por circuitos eléctricos. As máquinas, pode-se dizer que são vivas, mas ao mesmo tempo são uma imitação da vida, não passam de fios unidos e mecanismos, isso tudo junto concebe um robô.
Intel foi fundada em 1968, inicialmente utilizando o nome de NM Eletronics. Posteriormente, foi modificado para INTegrated ELetronics ou INTEL. Seus primeiros produtos foram memórias SRAM (Static Random Access Memory ou, em português, Memória estática de acesso aleatório). Na década de 70 a Intel expandiu seus processos produtivos para manufatura em larga escala, ainda tendo como produto principal memórias. Em 1971, lançaram seu primeiro microprocessador e um microcomputador em 1972, embora antes da década de 80 o foco da companhia estivesse voltado para a produção de memórias DRAM (Dynamic Random Access Memory ou, em português, Memória dinâmica de acesso aleatório). Devido à alta concorrência e ao sucesso alcançando pelo computador pessoal lançado pela IBM em 1981, a empresa alterou seu produto principal para microprocessadores.
O estágio compreende uma etapa de suma importância para crescimento e profissionalização do graduando em Engenharia de Computação. Através do estágio o estudante pode viver previamente a realidade do trabalho em uma empresa de seu setor de formação. Outro ponto de suma importância, é que o estágio permite que sejam abertas portas para o primeiro emprego do graduando em Engenharia de Computação. A prática é indispensável para este profissional ingressar no mercado de trabalho. O estágio tem como objetivo ingressar o estudante no mercado de trabalho, através da aquisição de experiência e novos conhecimentos, que vão além das aulas teóricas e práticas recebidas durante o curso. Para o curso de Engenharia de Computação, o estágio tem suma importância para que o futuro engenheiro termine a faculdade já com uma bagagem inicial de conhecimentos práticos, os quais sem dúvidas são indispensáveis para o ingresso no mercado de trabalho. Além disso, o estágio muitas vezes torna-se a oportunidade inicial para que o estudante consiga seu primeiro emprego, visto que muitas vezes este é contratado pela empresa logo após término do estágio.
Extreme Programming (XP) é um processo de desenvolvimento que possibilita a criação de software de alta qualidade, de maneira ágil, econômica e flexível. Vem sendo adotado com enorme sucesso na Europa, nos Estados Unidos e, mais recentemente, no Brasil. O Extreme Programming valoriza as atividades que geram resultados ágeis na forma de software com a máxima correção, intensamente testado e alinhado às necessidades de seus clientes e usuários. O XP simplifica e organiza o trabalho combinando técnicas comprovadamente eficazes e eliminando atividades redundantes. Através da adoção das práticas XP, é possível reduzir os riscos envolvidos com os projetos de software. Num mercado que requer mudanças freqüentes em seus processos, a metodologia surge como uma grande alternativa em relação aos processos de desenvolvimento tradicionais, que são caracterizados por uma grande quantidade de atividades e artefatos que tem por objetivo simplesmente ¿proteger¿ o software contra mudanças, o que faz pouco ou nenhum sentido, uma vez que os projetos devem se adaptar a tais mudanças ao invés de evitá-las.
Um sistema distribuído é uma "coleção de computadores independentes que se apresenta ao usuário como um sistema único e consistente". Outra definição diz: "coleção de computadores autônomos interligados através de uma rede de computadores e equipados com software que permita o compartilhamento dos recursos do sistema: hardware, software e dados". Dessa maneira, organizar a interação entre cada computador é primordial. Visando poder usar o maior número possível de máquinas e tipos de computadores, o protocolo ou canal de comunicação não pode conter ou usar nenhuma informação que possa não ser entendida por certas máquinas. Cuidados especiais também devem ser tomados para que as mensagens sejam entregues corretamente e que as mensagens inválidas sejam rejeitadas, caso contrário, levaria o sistema a cair ou até o resto da rede. Outro fator de importância é a habilidade de mandar softwares para outros computadores de uma maneira portável de tal forma que ele possa executar e interagir com a rede existente. Isso pode não ser possível ou prático quando usando hardware e recursos diferentes, onde cada caso deve ser tratado separadamente com cross-compiling ou reescrevendo software.
Em máquinas elétricas, motor elétrico ou atuador elétrico é qualquer dispositivo que transforma energia elétrica em mecânica. É o mais usado de todos os tipos de motores, pois combina as vantagens da energia elétrica - baixo custo, facilidade de transporte, limpeza e simplicidade de comando ¿ com sua construção simples, custo reduzido, grande versatilidade de adaptação às cargas dos mais diversos tipos e melhores rendimentos. A tarefa reversa, aquela de converter o movimento mecânico na energia elétrica, é realizada por um gerador ou por um dínamo. Em muitos casos os dois dispositivos diferem somente em sua aplicação e detalhes menores de construção. Os motores de tração usados em locomotivas executam frequentemente ambas as tarefas se a locomotiva for equipada com os freios dinâmicos. Normalmente também esta aplicação se dá a caminhões fora de estrada, chamados eletrodiesel.
A eletrônica é a ciência que estuda a forma de controlar a energia elétrica por meios elétricos nos quais os elétrons têm papel fundamental. Divide-se em analógica e em digital porque suas coordenadas de trabalho optam por obedecer estas duas formas de apresentação dos sinais elétricos a serem tratados. Numa definição mais abrangente, podemos dizer que a eletrônica é o ramo da ciência que estuda o uso de circuitos formados por componentes elétricos e eletrônicos, com o objetivo principal de representar, armazenar, transmitir ou processar informações além do controle de processos e servo mecanismos. Sob esta ótica, também se pode afirmar que os circuitos internos dos computadores (que armazenam e processam informações), os sistemas de telecomunicações (que transmitem informações), os diversos tipos de sensores e transdutores (que representam grandezas físicas - informações - sob forma de sinais elétricos) estão, todos, dentro da área de interesse da eletrônica.
Dois conceitos fundamentais no estudo dos sistemas de computação são o de Arquitetura e Organização de computadores. O termo arquitetura refere-se aos atributos do ponto de vista do programador, e, portanto, têm impacto direto sobre a execução lógica de um programa. O termo organização, refere-se às unidades operacionais e suas interconexões. Desta forma, uma mesma arquitetura pode ser implementada por meio de diferentes organizações. A arquitetura de um sistema computacional estabelece o modelo da organização e funcionamento de um sistema de processamento, com todas suas partes, divididas em seções, interagindo entre si. Os componentes e suas relações são representados através de sistemas hierárquicos, o que se mostra ideal para o estudo de conjuntos complexos e que atuam em diferentes níveis; separados por suas características, estudaremos o funcionamento de cada um destes componentes. As funções básicas de um computador são o processamento de dados, armazenamento de dados, transferência de dados e controle. Para desempenhar essas funções o computador precisa executar um conjunto de instruções (programa).
O Processamento de Sinais consiste na análise e/ou modificação de sinais utilizando teoria fundamental, aplicações e algoritmos, de forma a extrair informações dos mesmos e/ou torná-los mais apropriados para alguma aplicação específica. O processamento de sinais pode ser feito de forma analógica ou digital. Este processo utiliza matemática, estatística, computação, heurística e representações linguísticas, formalismos e técnicas de representação, modelagem, análise, síntese, descoberta, recuperação, detecção, aquisição, extração, aprendizagem, segurança e forense. Os objeto de interesse do processamento de sinais podem incluir sons, imagens, séries temporais, sinais de telecomunicações, como sinais de rádio e muitos outros. Hoje em dia, existem diversos dispositivos que podem ser usados no processamento digital de sinais, como DSPs (os mais rápidos e versáteis), microcontroladores e FPGAs.
Os métodos numéricos classicamente empregados, como ferramentas básicas na elaboração de sistemas computacionais necessários à análise estrutural, sempre foram os métodos das diferenças finitas e dos elementos finitos, desenvolvidos já há algum tempo. O surgimento do método dos elementos de contorno (MEC) e a sua utilização como uma alternativa para a obtenção de soluções numéricas em quase todos os campos da engenharia representa um avanço significativo que ocorreu nessa área do conhecimento nos últimos anos. Em muitos problemas, comprovadamente, esse método é uma alternativa mais precisa e que permite a obtenção de respostas mais confiáveis quando comparadas com as dos métodos usuais. Em algumas aplicações as equações integrais são representações exatas do modelo matemático utilizado para representar o problema físico, o que, em geral, é traduzido como aumento de confiança nos resultados obtidos.
Abonner på vårt nyhetsbrev og få rabatter og inspirasjon til din neste leseopplevelse.
Ved å abonnere godtar du vår personvernerklæring.