sábado, 19 de março de 2011

Beneficiamento de Minérios

  
  Os processos de beneficiamento de minérios são regulamentos pela Norma Reguladora de Mineração (NRM) como uma etapa que visa preparar granulometricamente, concentrar ou purificar os minerais por métodos físicos ou químicos sem alterar a sua composição química.
   Os minerais são importantes em diversas atividades industriais que são a base das civilizações modernas.Os minerais são utilizados na industriais siderúrgicas, na agricultura, nas industriais de produtos químicos, na construção civil, como insumos para joalherias(gemas), entre outras várias atividades. Quanto maior o nível de desenvolvimento tecnológico de um país, maior é o seu consumo de minério per capita. No entanto, para que os minerais sejam utilizados nas atividades industriais eles devem corresponder a algumas características granulométricas e de concentração, sendo, por isso, fundamental o processo de beneficiamento de minérios.
  O processo inicial ao qual o mineral é submetido é a fragmentação. O processo de fragmentação de rochas industriais minerais (RIMs) visa apenas a atender determinadas características granulométricas do mercado, já que este tipo de minério é utilizado da forma como é extraído. Um exemplo das RIMs são a areia e as britas.Por outro lado, os demais minerais devem passar por etapas de concentração antes de serem aplicados nos processos industriais, sendo necessário que na etapa de fragmentação a redução granulométrica seja tal que haja uma separação do mineral minério – parte do mineral economicamente viável – da canga – rejeitos. A este processo denominamos de liberação.
   A etapa de fragmentação utiliza de equipamentos como britadores e moinhos que realizam , respectivamente, a britagem e a moagem dos minerais. Na britagem os diâmetros obtidos são de aproximadamente 1 mm, já na moagem é possível obter diâmetros de até 0,074 mm. Alguns exemplos de britadores são os britadores de mandíbula e os britadores giratórios. Exemplos de moinhos temos os moinhos de bolas e moinhos de martelo.
   Após a etapa de fragmentação temos uma etapa diretamente associada a ela : a classificação. Através da classificação é possível determinar se as especificações granulométricas do processo de fragmentação foram alcançadas. Dessa forma, podemos determinar se a liberação das partículas foi alcançada e se as RIMs atendem as especificações do mercado. Nesta etapa são utilizadas peneiras, classificadores mecânicos e ciclones.
   Através das etapas anteriores é possível realizar e monitorar a liberação entre as partículas de mineral minério e de canga. Na etapa seguinte devemos utilizar de alguma propriedade física ou físico-química para separar estas partículas de forma a obter mineral minério em concentração adequada de um lado, e do outro deixarmos os rejeitos. Este processo é a concentração.
   A concentração pode utilizar das propriedades físicas, tais como a gravidade e susceptibilidade magnética. Quando a propriedade diferenciadora é a densidade, são utilizadas mesas vibratórias, jigues, espirais ou cones como forma de separar o mineral minério da canga. Estes processos são conhecidos como gravimétricos e são empregados na concentração de ouro, zirconita, ilmenita, cromita e monazita.
   A susceptibilidade magnética se baseia nos diferentes comportamentos de substâncias quando submetidas a um campo magnético. As substâncias podem ser classificadas quanto a susceptibilidade magnética em três tipos; ferromagnéticas, paramagnéticas e diamagnéticas. As ferromagnéticas são fortemente atraídas pelo campo magnético, as paramagnéticas possuem uma atração fraca e as diamagnéticas não são atraídas. Alguns minérios produzidos são o minério de ferro, as areias quartzosas, feldspatos, etc.
   Quando os processos químicos não são capazes de separar o mineral minério é utilizada a propriedade físico-química de superfície das partículas. Neste caso, a técnica mais amplamente utilizada é a flotação.
    Na flotação o mineral minério e a canga devem ter como propriedade diferenciadora a afinidade com a água. Esta afinidade pode ser natural ou induzida através de reagentes químicos. Dessa forma, as substâncias com menor afinidade química com a água tende adsorver nas bolhas de ar que circulam pela polpa de minério, permitindo que se concentrem na superfície e possam ser separadas. Os processos de flotação podem ser classificados em mecânicos ou pneumáticos. Exemplos de minérios separados através da flotação são areias quartzosas de elevada pureza, cloretos , feldspatos, fosfatos, mica, berílio, fluoritas, etc.
   Os processos de beneficiamento de minérios quando bem executados diminuem o impacto ambiental gerado pela mineração. O ideal é que todo minério lavrado tivesse alguma aplicação econômica, não gerando rejeitos. No entanto, isto não ocorre e quanto melhor o beneficiamento, melhor a recuperação do processo, gerando menos rejeitos e diminuindo os impactos ambientais.
   Outro fator ambiental que deve ser observado são os impactos da poluição gerada pelo beneficiamento mineral.Entre os exemplos de poluição podemos citar os produtos químicos utilizados como os reagentes presentes nos efluentes da flotação, o mercúrio na amalgamação do ouro e o alto teor de partículas finas geradas na britagem e moagem de minérios.

quarta-feira, 9 de março de 2011

Caos no GPS

  
   Com certeza você já deve ter ouvido falar do GPS ou até mesmo possui um. Atualmente é possível adquirir um aparelho de GPS por um preço acessível, estando o seu uso bastante difundido pelo mundo inteiro. Nós encontramos aplicações do GPS em celulares, nos navegadores de carros, em atividades acadêmicas de pesquisa, nos caixas eletrônicos dos bancos e na até mesmo nas bolsas de valores mundo afora, mas será que este sistema é confiável? Quanto dependente dele nós somos?
   O Sistema de Posicionamento Global que nós conhecemos popularmente como GPS é um sistema de navegação por satélite que fornece a um aparelho receptor informações de posição e horário desde que ele seja capaz de se comunicar com um conjunto de 4 satélites. Para que nos mais diferentes pontos da superfície terrestre seja viável este tipo de comunicação são utilizados um conjunto de 24 satélites ativos mais quatro sobressalentes. Cada satélite se encontra a uma distância de 20200 km da superfície e circulam a terra duas vez por dias a velocidade de incríveis 11265 km/h. Os satélites possuem abordo relógios atômicos de altíssima precisão, fornecendo juntamente com o seu sinal informações de horário em que o sinal foi enviado. Assim, comparando os sinais dos quatro satélites e o tempo gasto para o sinal ser recebido, é possível conhecer as próprias coordenadas.
   Os sinais de GPS não são utilizados apenas nos sistemas de navegação de automóveis, embarcações e aeronaves. Hoje em dia, desde as ligações feitas em aparelhos de celular ao funcionamento de um caixa eletrônico dependem deste sinal. Nas bolsas de valores, por exemplo, os sinais de GPS são utilizados para fornecer proteção contra fraudes. Já existe até uma nova área da agricultura, a agricultura inteligente, que utiliza equipamentos dotados de GPS para melhorar a produtividade e administração da produção.Enfim, somos dependentes do GPS sem perceber.
   Como a cada ano nos tornamos ainda mais usuários de tal tecnologia,caso o sinal de GPS deixe de operar por algum motivo o caos estará instalado. Foi o que aconteceu em 2007, em São Diego, na Califórnia, quando devido a um teste militar em dois navios da marinha americana localizados nos portos próximos a cidade os sinais de rádio foram bloqueados. Os aeroportos perderam a comunicação com os aviões, os celulares pararam de funcionar, os caixas eletrônicos não realizavam mais saques, entre outros vários sistemas que ficaram fora do ar.
   Mas o pior é que não são necessários testes como os efetuados pela marinha para bloquear o sinal dos satélites. Equipamentos que já se encontram disponíveis no mercado a preços bastante acessíveis já são capazes de bloquearem os sinais de GPS em distâncias de quilômetros. Como os satélites possuem limitações quando a questão é consumo de energia, os sinais enviados por eles têm que ser fracos. Dessa forma, desde que sinais sejam produzidos na mesma frequência em níveis superiores de energia os aparelhos já perdem a noção de posição e tempo e todo o sistema pode entrar em colapso. Atualmente, várias pesquisas são feitas buscando resolver tais problemas.

domingo, 27 de fevereiro de 2011

  
   Um sonho de mais de 150 anos se tornou realidade. Graças a um enorme esforço de projeto e engenharia foi concluída em novembro de 2010 a construção de um túnel subaquático de mais de 13.3 km de extensão que ligará os continentes Europeu e Asiático através do estreito de Bósforo.Mais que apenas um sonho de sultões, a obra era uma necessidade devido ao grande fluxo de pessoas nas pontes e embarcações através do estreito.
   O túnel de Marmaray , como ficou conhecida a obra de proporções faraônicas, foi um verdadeiro desafio para os engenheiros. Primeiro devido ao fato de nenhuma construção ter sido jamais feito à profundidade necessária no Marmaray, incríveis 60 metros. Segundo, porque a região onde está localizada Istambul, cidade turca onde o túnel será construído, é caracterizada por uma altíssima atividade geológica, sendo certa a ocorrência de terremotos e maremotos. Como se isto não fosse suficiente, ainda existem as fortes correntes marinhas que dependendo da profundidade alteram sua direção. Como pode se ver, desafios é o que não faltava!
   Os 13.3 km de extensão dos túneis e os seus 6 metros de altura tiveram que ser reforçados com aço e concreto para que fosse possível suportar a pressão de mais de 6 atmosferas que tentam amassa-lo. Como não era possível construir e transportar uma única estrutura com este tamanho colossal, foram feitos 11 segmentos metálicos de 135 metros cada que eram construídos em terra. Antes de serem concretados, estes segmentos eram levados para uma espécie de “banheira” enorme onde eram finalizados os trabalhos, dando a ele incríveis 18000 toneladas de aço e concreto. Finalmente as banheiras eram enchidas com a água vinda do mar e os segmentos passavam a flutuar e a serem ,com uma certa facilidade, guiados estreito a dentro até as plataformas responsáveis pela submersão. As “banheiras” foram uma forma inteligente de interligar os processos em terra ao mar, sem elas jamais seria possível transportar tamanho peso.
    Os segmentos passavam por uma bateria de testes de segurança na plataforma de submersão. Estes testes garantiam que eles estavam hermeticamente vedados e que seriam capazes de submergir com segurança. Um problema enfrentado nesta etapa era o movimento de embarcações no estreito de bósforo, mais de 40 mil navios passam todo ano pela região, não sendo um canteiro de obras dos mais desejados. Assim, os enormes blocos de concreto vedados tinham que ser submergidos de forma segura e rápida. Para isso, os engenheiros contaram com 10 tanques de lastro ,que nada mais são que reservatórios de água distribuídos no interior do segmento para permitir que as correções necessárias durante a descida fossem realizadas.
     Devido a iminência de terremotos e maremotos, foram feitas espécies de trincheiras reforçadas para prevenir que a junção do terreno arenoso mais o terremoto resultassem em um colapso do Marmaray. Além disso, foram feitas vedações especiais de borracha que além de vedarem os túneis também eram flexíveis para não se romperem ao longo dos tremores.Estas medidas juntamente com a estrutura reforçada de concreto e aço faz com o Marmaray seja capaz de resistir a terremotos de até 7.5 graus na escala Richter.
    Apesar de todas as dificuldades que poderiam atrasar a obra, o que mais atrapalhou o trabalho dos engenheiros foi uma incrível descoberta: o maior sítio arqueológico de embarcações do século VI ao XI. Este sítio se localizava justamente em um dos pontos de escavação no continente. Alguns meses de trabalho tiverem que ser adiados para que o trabalho dos arqueólogos e historiadores fosse realizado e as mais de 5 mil peças pudessem retiradas deste incrível achado.
    A inauguração da Marmaray está marcada para o dia 29 de outubro de 2013 quando a República Turca fará 90 anos. Este projeto que saiu dos sonhos para se tornar uma das maravilhas da engenharia custou mais de 2.5 bilhões de dólares.

sábado, 26 de fevereiro de 2011

   Apesar da quantidade de medidas de segurança tomadas para impedir que dinheiro falsificado seja colocado em circulação pelas diversas quadrilhas especializadas neste tipo de crime, cada dia as falsificações estão ficando mais próximas das notas originais, sendo necessário do governo um investimento contínuo em tecnologia e na informação da população. A falsificação de cédulas não é um crime exclusivo de países em desenvolvimento como o Brasil, pelo contrário, países com economia mais estável são os principais alvos dos falsificadores.
   Como forma de combater a falsificação são utilizadas algumas medidas de segurança na produção do papel moeda, tais como relevo, marca d’água, detalhes especiais na nota, que ,apesar de dificultarem, não impedem uma falsificação quase perfeita. Por isso, pesquisas são desenvolvidas buscando aumentar a confiabilidade do papel moeda.
   Uma pesquisa divulgada revista Advanced Materials trata justamente de uma pesquisa desenvolvida por um conjunto de pesquisadores alemães e japoneses comando por Hagen Klauk, chefe do Instituto Max Planck de pesquisas de materiais orgânicos no estado sólido. Neste trabalho eles conseguiram dar um primeiro passo no que pode ser a solução completa para o problema da falsificação de dinheiro.
   Ao longo de anos de trabalho os pesquisadores conseguiram criar um transistor de baixa potência feito com material orgânico que é capaz de se aderir a superfícies rugosas como as de um papel moeda. A maior dificuldade, segundo os pesquisadores, era descobrir um meio de fixar a membrana de silicone ao papel sem que os processos químicos empregados o danificassem. Com os avanços desenvolvidos pelo grupo, eles se dizem capazes de fixar o filme com o transistor em superfícies desiguais, algo que ainda não havia sido conseguido por nenhum outro grupo.
   Apesar dos avanços conseguidos, a pesquisa irá demandar um esforço de engenheiros eletrônicos e mecânicos de forma a conseguirem adaptar um circuito elétrico na nota que forneça os 3 volts necessários para o funcionamento do transistor.
   Em um futuro próximo tais transistores serão capazes de transmitir informações via sinal wireless para scanners dando maior segurança para as transações financeiras utilizando notas.


  

sexta-feira, 25 de fevereiro de 2011

   A malária é reconhecida como uma grave problema de saúde pública no mundo, estando quase 50% da população em áreas de risco, em mais de 109 países e territórios. A estimativa é de mais 300 milhões de novos casos e 1 milhão de mortes por ano, principalmente em crianças menores de 5 anos e mulheres grávidas do continente africano. Ela é de longe a doença parasita e tropical que mais causa problemas sociais e econômicos no mundo, sendo superada em número de mortes apenas pela AIDS.O paludismo, como também é conhecida,é caracterizado como uma doença infecciosa, febril aguda cujos agentes etiológicos são protozoários transmitidos por vetores.
   O principal vetor da malária é Anopheles, que adquire o protozoário quando pica algum indivíduo infectado.Este protozoário ,ainda em forma de gameta, se reproduz no interior do mosquito dando origem a novos esporozoítos, forma ativa do protozoário, que migram para as glândulas de sua saliva, estando prontos para infectar novos indivíduos.

   Como os agentes etiológicos da malária são protozoários do gênero Plasmodium, que diferentemente de vírus e bactérias são seres eucarióticos, como nós humanos, o desenvolvimento de drogas que seja específicas para eles, não atingindo nosso organismo, acaba se tornando uma tarefa mais difícil. Além disso, estes parasitas têm a capacidade de gerenciar o processo de produção das proteínas presentes em sua membrana externa, proteínas estas que nosso organismo utiliza para reconhecer os agentes externos e desencadear as respostas imunológicas. Dessa forma, eles são capazes de confundir nosso sistema imunológico. Outra característica que torna o seu combate ainda mais difícil é a capacidade que tanto o protozoário como o Anopheles têm de se torna resistentes aos medicamentos.
   Dá para se notar que combater a malária é algo quase impossível. Porém, nem tudo vai tão mal assim. Uma nova pesquisa feita com parasitas do Anopheles geneticamente modificados, buscando evitar que o vetor seja capaz de nos contaminar vem demonstrando excelentes resultados.
   Os vetores da malária são mosquitos geralmente vulneráveis a diversos tipos de parasitas. Logo, os pesquisadores pensaram em introduzir parasitas neles, de forma que eles morressem antes que os protozoários fossem capazes de se desenvolver e contaminar seres humanos. Porém, os parasitas não demonstraram capacidade de matar rapidamente o mosquito, permitindo que tanto os mosquitos quanto os protozoários desenvolvessem defesas, algo que eles fazem muito bem.
   Devido aos problemas encontrados, os pesquisadores modificaram uma espécie de fungos geneticamente. Assim, os fungos passaram a não atacar o mosquito, mas sim a produzir proteínas que atacavam aos parasitas.
    Foram desenvolvidas diferentes proteínas, cada uma evitando de alguma forma que os parasitas fossem capazes de nos infectar. Uma das proteínas era responsável por revestir as glândulas salivares, impedindo que os parasitas fossem capaz de atravessa-las. A outra era um anticorpo que se ligava diretamente aos protozoários enquanto que uma terceira proteína, presente no veneno dos escorpiões, era responsável por mata-los.
    Os resultados foram animadores. Enquanto que os fungos que não eram geneticamente modificados conseguiam diminuir em apenas 15% a quantidade de parasitas presentes nas salivas, o geneticamente modificado foi capaz de bloquear de 75 a 90%.
   Apesar de os protozoários poderem guiar a evolução de forma a criarem estratégias para se protegerem das proteínas produzidas pelos fungos, os pesquisadores acreditam que isto não deve ocorrer, pois os fungo estão produzindo diferentes tipos de proteínas, dificultando o desenvolvimento de uma imunidade pelos protozoários. Além disso, estas proteínas produzidas são apenas algumas das várias opções que podem ser adotadas caso isto ocorra.
   Quem sabe em próximas pesquisas não se desenvolvam mecanismos semelhantes para outras doenças como a dengue...

quinta-feira, 24 de fevereiro de 2011

Casas inteligentes

  
    Sabe aquelas casas do futuro presentes em vários filmes de ficção e desenhos animados como os Jetsons, elas estão cada dia mais próximas de se tornarem realidade. As casas do futuro estão se tornando mais inteligentes, capazes de reconhecer os seus donos, de captar os seus sinais vitais e até mesmo de identificar quando pessoas estranhas as invadem. No entanto, não adiantaria nada se as redes de energia que abastecem as casas permanecessem obsoletas, não dando o suporte necessário para as novas tecnologias.
   Imagine você chegando em casa após um dia de trabalho pesado, com aquela comida congelada. Quando chega em casa você esquenta uma água na chaleira e se prepara para despeja-la na embalagem da comida congelada.
   Tudo normal, não?
    Mas e se a sua comida congelada apresentar uma embalagem inteligente que indica quando a comida já está descongelada e em condição de consumo e ,além disso, ao encostar a chaleira no balcão da cozinha, este acione um conjunto de bobinas já vindas com ele que serão responsáveis por criar o campo magnético responsável por aquecer as substâncias metálicas presentes no interior.
   Soa meio futurista não!? Mas, segundo Dave Barman, da Fulton Inovations, podemos estar a apenas três anos desta tecnologia, basta que alguma indústria se interesse pelo projeto.
   As casas monitoradas em tempo real por sensores que vão desde os encanamentos aos componentes elétricos já podem ser adquiridos e empresas como o Google já procuram levar a internet à nossa televisão, possibilitando uma integração total de todos os sistemas.
   Casas com elevado grau de inteligência ainda são difíceis de serem encontradas, mesmo em países mais desenvolvidos como Inglaterra e Estados Unidos, apesar de a realidade estar mudando. Na Inglaterra, por exemplo, o governo começa a correr atrás das metas que determinam que  todas as novas casas devem ser neutras em termos de carbono até 2016, com os prédios públicos e comerciais tendo que se adaptarem em até três anos depois.
   Muito do que tem sido feito nestes países é transformar casas antigas em casas mais eficientes energicamente, realizando medidas como a eliminação dos vazamentos. Mas, em novas construções já é possível ver novas tecnologias substituindo padrões antigos. Um novo mercado vem surgindo para as industrias.
   Mas, nada disso importa se não formos capazes de tornar os sistemas de distribuição de energia elétrica mais eficiente. Pensando nos milhões de dólares que podem ser economizados com sistemas de distribuição inteligentes e no mercado que vai surgir a partir destes produtos, a GE, uma das maiores companhias do mundo no setor elétrico, juntamente com a AEP vem desenvolvendo testes com estes sistemas.
   Através destes projetos eles esperam conseguir aumentar a qualidade da energia fornecida aos consumidores, com um maior gerenciamento e controle de seu consumo, permitindo que o desperdício diminua e a necessidade de construir novas usinas seja adiada ao máximo.
   Nos testes eles utilizaram uma população de 110.000 consumidores, fornecendo para alguns deles produtos como carros elétricos, além dos medidores de energia inteligente capazes de se comunicarem com o a companhia fornecedora da energia e com o próprio consumidor. Com os carros elétricos eles puderam observar quanto e quando eles foram utilizados e qual era o impacto da conexão dos mesmos na rede elétrica. Através destas pesquisas eles estão criando as bases necessários para os avanços tecnológicos que estão a caminho.
   
   Com os problemas ambientais que estamos enfrentando, a questão do aquecimento global e as suas conseqüências, temos que procurar continuar em um processo de desenvolvimento, mas sem destruir o meio ambiente. O desenvolvimento sustentável nunca foi tão abordado e as empresas já começam a se conscientizar com a causa, buscando atrair este novo tipo de consumidor: o ecologicamente correto. Neste contexto que se enquadra um novo tipo de tecido produzido a partir de garrafas PET(Polietileno Tereftalate) que ganhou ainda mais notoriedade quando foi utilizado na confecção dos novos uniformes da Seleção Brasileira de Futebol. Convido você a entender mais deste tecido e da sua importância ambiental.

   A resina PET foi inventada em 1941 pelos químicos ingleses Whinfield e Dickson para ser utilizada na produção de fibras sintéticas. Apenas na década de 70 que foi descoberta sua principal aplicação: fabricação de embalagens para refrigerantes, sucos, água, óleo de cozinha e produtos de limpeza. A partir de então as garrafas PET têm se espalhado pelo mundo deixando um rastro de poluição por onde passa.
   O grande problema das embalagens feitas a partir da resina PET está no tempo que elas demoram para serem degradadas pela natureza, incríveis 450 anos. Além disso, ao se acumularem em lixões e aterros sanitários elas impedem a livre movimentação de fluidos e gases, dificultando a decomposição da matéria orgânica. Só no Brasil em 2006 foram consumidas 378 mil garrafas PET.
   Devido a descoberta dos problemas ambientais que as PET geram, estudos realizados comprovaram que ela podia ser integralmente reciclada sem a perda de suas propriedades. No Brasil mais da metade das PET utilizadas são recicladas devido à existência de milhões de catadores e das associações formadas por eles. Além de catarem as embalagens, as associações ficam responsáveis por separar os rótulos e tampas e por compacta-las em fardos para serem transportadas para as usinas. “De 35% a 40% da resina reciclada são utilizados na fabricação de tecido” afirma André Vilhena, presidente da CEMPRE – Compromisso Empresarial para reciclagem- uma associação que promove a reciclagem e conscientização para esta atitude no Brasil. O restante possui diversas outras aplicações: cordas, cerdas de vassouras e escovas, carpetes, enchimento para travesseiros, lonas, cortinas, pelúcias, rolos de pintura e adesivos.
   Não pense você que os tecidos recicláveis são de baixa qualidade. Os tecidos são confortáveis e possuem um toque agradável. Para que possuam uma boa transpiração, as fibras sintéticas de poliestireno, fabricadas a partir da resina da PET, são misturadas com algodão. Muitos estilistas conceituados do Brasil e do mundo já trabalham com os tecidos reciclados de garrafas PET.
   O processo de reciclagem das embalagens e da transformação em tecido se dá em três fases.A primeira fase consiste no processo de recolher as garrafas e outras embalagens, retirar seus rótulos e tampas, separar por cores e enviar para as usinas onde ainda são trituradas.
   Na segunda fase elas são fundidas a uma temperatura de 300°C para uma filtragem e retirada de impurezas. Nas extrusoras – máquinas responsável por transforma o material em filamento -  o material é aquecido a 300°C e enviado através de uma bomba para microfuros onde é transformado em filamentos. O resultado é uma fibra sintética 20% mais fina que o algodão.
   A última fase é a estiragem, quando a fibra é transformada em fio. As fibras produzidas a partir da garrafa PET podem ser usadas sozinha ou em associação com outros tecidos como seda e algodão.
   O tecido reciclado possui vários benefícios consideráveis, temos uma menor poluição do ar, água e do solo, economizamos em energia elétrica, ajudamos a melhorar a limpeza das cidades gerando renda e melhorando a qualidade de vida de comunidades mais carentes. Para se ter uma idéia, o processo para produzir fibra reciclada requer 30% da energia necessária no processo a partir da matéria virgem, ele não utiliza de produtos químicos poluindo o meio ambiente já que as cores da garrafas PET são reaproveitadas e a partir de 6 garrafas PET é possível produzir 1 Kg de fio. Vale ressaltar que em processos têxteis convencionais são empregados mais de 8 mil tipos diferentes de produtos químicos, os quais iram poluir o meio ambiente, e que para amaciar tecidos como o couro presente em bolsas, sapatos, jaquetas e necessário utilizar milhares e milhares de toneladas de sal e outros produtos químicos que acabam por se acumular nos solos.
   Se você gostou desta publicação, provavelmente irá gostar da matéria em que descrevemos um projeto caseiro utilizando garrafas PET e embalagens de Leite Tetra Pak para produzir aquecedores solares e aproveitar a energia solar tão abundante em nosso país. Acompanhe este post aqui... 

           http://www1.folha.uol.com.br/folha/dimenstein/comunidade/gd080904.htm
              essetalmeioambiente
  

Yes, nós temos banana!

    Cada dia nos surpreendemos mais com as propriedades nutritivas e a importância ecológica que os alimentos possuem. A banana, figura constante na nossa alimentação, possui além de suas propriedades nutritivas, das fibras e dos minerais uma nova função que vem animando os pesquisadores: a capacidade de filtrar metais pesados existentes nas águas.
   Em uma pesquisa desenvolvida pela Melina Boniolo, doutoranda pela UFSCAR, foi comprovada a propriedade que a casca da fruta apresenta de se combinar com os metais pesados presentes na água realizando uma filtragem de até 65% das impurezas presentes.
   A idéia de utilizar a casca da banana surgiu da necessidade de se criar alguma finalidade para um produto que antes estava se tornando um problema. Por dia, os restaurantes da cidade de São Paulo geravam cerca de 4 toneladas de cascas de banana que eram jogadas no lixo. Estudando as propriedades da cascas, foi possível notar que ela possuía uma quantidade enorme de moléculas com cargas negativas. Como os opostos se atraem, a pesquisadora teve a idéia de utilizá-las para se combinar com os metais pesados carregados positivamene presentes nas águas resultantes de processos industriais.
   O projeto da pesquisadora foi pensado com o Urânio, mas outros metais como níquel, cádmio e chumbo, bastante usados na indústria também podem ser filtrados pelo processo. O projeto foi um sucesso e Boniolo recebeu o Prêmio Jovem Cientista e convites para apresentar seu trabalho na Inglaterra.


Fonte:  http://essetalmeioambiente.com/?p=4197

quarta-feira, 23 de fevereiro de 2011

Motores ecológicos e 50% mais eficientes

   Você já parou pra pensar como os carros funcionam? O que está por trás daquele tanto de metal, fios e tubos que você vê quando dá uma espiada no capô? Para quem nunca se interessou, dá uma olhada neste post pra ficar por dentro do que acontece e de uma nova pesquisa que vem sendo feita pra aumentar a eficiência do seu motor.
   Os motores convencionais são motores de 4 tempos: Admissão, Compressão, Combustão e Expansão. Neste ciclo de quatro tempos temos um movimento linear de um pistão que é convertido através de um virabrequim em movimento de rotação que faz o carro andar.
   A admissão de combustível ocorre através da válvula de admissão, responsável por injetar poucas gotas de combustível que se mistura ao ar presente na câmara. Na fase de compressão a mistura ar e combustível é comprimida de forma a potencializar a combustão. Na etapa seguinte temos a geração de um centelha no interior da câmara de combustão, fazendo o ar expandir e empurrar o pistão para a sua posição inicial. Por fim, os gases presentes no interior da câmara de combustão devem ser expulsos, sendo por isso, denominada de exaustão. Este ciclo então se repete.
   Através deste ciclo de funcionamento o motor 4 tempos ou motor de Otto é capaz de converter apenas 30% da energia presente nos combustíveis em movimento, o restante é perdido na forma de calor, ruído, entre outras formas de energia. Mas, segundo uma nova pesquisa realizada pela Tour Engine é possível aumentar esta eficiência, sendo necessário apenas dividir o motor em duas partes, sendo cada uma especializada em suas funções.
    Segundo os pesquisadores, a baixa eficiência observada é produto das tarefas contraditórias que o motor de combustão interna convencional tem que realizar: compressão e combustão.
    Para que o processo de compressão funcione é necessário que a câmara seja resfriada, utilizando para isso o radiador. Assim, o radiador retira constantemente energia do processo, diminuindo a energia aproveitada durante a combustão.Porém, durante a combustão geramos calor que aquece a câmara. Fica bem claro que mandamos o motor realizar tarefas contraditórios!
   Buscando um novo design com maior rendimento os engenheiros da Tour Engine dividiram o motor em duas metades conectadas através de válvulas. Em uma das metades, a quente, ficaram concentrados os processos de combustão e admissão. Na parte fria do motor, os processos de compressão e exaustão. Neste design, os pesquisadores conseguem isolar termicamente os componentes, sem ,no entanto, desprezar a importância deles no resultado final.
    Separando o motor em partes os pesquisadores puderam também se atentar para detalhes do design que atendiam especificamente a uma etapa. Como cada parte faz uma diferente tarefa, cada uma tem especificações de tamanho próprias que antes eram negligenciadas pela união dos processos. Um exemplo é a câmara para compressão que é mais eficiente em tamanhos menores, enquanto que para a combustão a câmara têm que ser maiores, permitindo um aproveitando melhor da energia gerada na expansão. Dessa forma, no motor convencional, como a câmara de expansão é menor que o tamanho ideal, uma parcela da energia é perdida por falta de espaço durante o processo de combustão.
   A empresa está produzindo atualmente seu segundo protótipo. Eles estão na expectativa de aumentarem o rendimento do motor em mais de 50% e reduzirem a emissão de dióxido de carbono em um terço.
   Quer ler mais sobre carros ecológicos e revolucionários, confira este post...

Veículo totalmente controlado pela mente

   Em uma publicação mais antiga o OCoxambra já havia falado sobre os projetos que a DARPA, a Agência para Projetos Avançados de Defesa, vinha desenvolvendo para estimular o desenvolvimento de carros autônomos, permitindo que as várias horas perdidas anualmente ao volante pudessem ser aproveitadas para outras atividades, tais como a leitura de um livro, navegar na internet, dormir, entre outras. Além, é claro, das aplicações militares para quaisquer veículos não-tripulados. Mais deste post aqui...
  Agora, a um passo atrás dos carros autônomos, capazes de nos guiar com agilidade, conforto e ,principalmente, segurança foi desenvolvido um carro capaz de ser conduzido por nada menos que os nossos pensamentos. O carro é capaz de acelerar, frear, virar à esquerda ou à direita através de 16 sensores de eletroencefalogramas(EEG). O funcionamento destes sensores está relacionado a um software desenvolvido por pela Emotiv, de São Francisco, que permite que determinados padrões neurais sejam identificados e correspondam as diferentes funções existentes no veículo.
   Você pode estar se perguntando, qual a utilidade deste serviço? Podemos pensar em termo de praticidade, controlar um veículo através do pensamento requer menor esforço e permite que o motorista desfrute melhor o passeio. Porém, os principais favorecidos com este tipo de tecnologia são as pessoas que por alguma deficiência física tenham ficado limitados a dirigir e agora com poderão guiar seus carros e cadeiras de  rodas com conforto e segurança.
   A equipe de alemães que estão envolvidos na pesquisa concluíram os testes dizendo que o tempo transcorrido entre os sinais cerebrais e a execução das ações foi muito bom para um projeto em fase inicial e que já planejam futuras aplicações desta interface homem-máquina em carros totalmente automatizados.
  Podemos pensar em aplicações mais imediatas para os sensores de EEG, tais como o controle sobre membros artificiais, dirigir uma cadeira de rodas e até mesmo acessar as funções do iPad.
  
fonte: http://www.newscientist.com/blogs/onepercent/2011/02/mind-control-puts-you-in-charg.html

Asas Ajustáveis - Uma lição da natureza



    O homem vem dominado os céus há mais de um século. Voar já é algo comum e várias aeronaves já cumprem seus papéis em aplicações militares e civis. Nos últimos anos temos notado um interesse crescente dos setores de Defesa por aeronaves não-tripuladas, acelerando o desenvolvimento de formas mais complexas de vôo.
  Para que os aviões consigam voar é necessário que o ar flua através de suas asas, gerando uma força vertical para cima capaz de sustenta-lo no ar. Aeronaves capazes de mudar as formas de suas asas, são capazes de se adaptarem a diferentes condições de vôo, economizando combustível e sendo mais ágeis.
  O interesse por asas versáteis vem da inspiração encontrada na natureza. Engenharia é, de uma forma mais ampla, derivada do mundo natural: Engenheiros observam a natureza, a forma como a evolução tem resolvido vários problemas ao longo de milhões de anos, e então buscam soluções análogas. Todas as criaturas vivas que voam apresentam asas com formas ajustáveis, estando um passo a frente da nossa tecnologia atual, a qual não é capaz de voar em condições em que o número de Reynolds é muito baixo.
   O número de Reynolds é um valor adimensional usado para caracterizar o escoamento do fluido, sendo função da velocidade de movimento no fluido, da densidade, da viscosidade e do tamanho do objeto que se move. Grandes aeronaves ao se moverem de forma rápida no fluído são capazes de gerar sustentação nas asas devido a diferença de pressão causada pelo formato aerodinâmico das mesmas. Dessa forma, a pressão na parte inferior da asa é maior que a pressão na parte superior, surgindo uma força de sustentação que puxa o avião para cima.
   No entanto, insetos, pássaros, morcegos e qualquer pequeno objeto que voe em altitudes menores e com menor velocidade possuem números de Reynolds baixos, implicando em uma maior influência da resistência do ar no vôo. Para superarem tais dificuldades, eles desenvolveram a capacidade de variar o formato de suas asas, criando diferentes padrões de turbulência que fazem surgir forças de impulsão e sustentação. Neste tipo de vôo que se encaixam os veículos não-tripulados que estão sendo desenvolvidos.
   A principal inspiração para os pesquisadores têm sido os beija-flor devido as suas peculiaridades: um beija-flor é capaz de permanecer em vôo por mais de quatro anos, pousando apenas para alimentar os filhotes e colocar novos ovos. Além disso, eles têm também uma habilidade incomum de fazer manobras e pairar no ar.

terça-feira, 22 de fevereiro de 2011

Materiais Semicondutores


Semicondutores

    Os materiais semicondutores se caracterizam por possuir como portadores as lacunas e os elétrons livres. Estes materiais se ligam através de ligações covalentes formando cristais. Os cristais formados podem ser classificados em dois grupos, os de cristais intrínsecos e os de cristais extrínsecos. Os cristais intrínsecos se caracterizam pela presença de átomos de semicondutores apenas, enquanto que os extrínsecos apresentam elementos que adicionam propriedades aos cristais.
   Nos semicondutores intrínsecos temos a presença de átomos do semicondutor puro, sendo estes átomos constituídos por quatro elétrons na camada de valência. Para que seja possível forma cristais, tais átomos se unem através de ligações covalentes. A condução nestes elementos ocorre devido a formação de elétrons livres durante a agitação térmica, os quais, caso exista algum campo elétrico aplicado, tendem a se movimentar em um sentido e suas lacunas em sentido oposto. Portanto, a condução em materiais semicondutores ocorre devido à excitação dos elétrons da banda de valência para a banda de condução e devido às lacunas. Sendo a quantidade de energia necessária para levar um elétron da banda de valência para a banda de condução, conhecida como gap de energia, o que determina em última instância se o elemento será um condutor, semicondutor ou isolante. Nos semicondutores, esta energia está em torno de 1 eV, enquanto que nos isolantes é dezenas de vezes maior. Sendo assim, à temperatura de zero Kelvin (-273.15 °C) os semicondutores se comportam como isolantes, pois os elétrons não terão energia suficiente para passarem para a banda de condução.
   No grupo dos semicondutores extrínsecos temos dois tipos: n e p. Essas siglas vêm de negativo e positivo e está diretamente associado com elemento que é utilizado na dopagem. Quando a dopagem é feito com elementos pentavalentes, como fósforo e antimônio, temos que estes elementos passam a assumir a posição dos átomos do semicondutor, fazendo quadro ligações covalentes e apresentando um elétron de valência sem realizar ligação.Como a estabilidade é alcançada com o octeto,os elétrons excedentes, nos semicondutores tipo n,dão origem à elétrons livres e os átomos pentavalentes apresentam carga positiva. Já no caso dos cristais do tipo p, temos que os elementos utilizados para dopagem são trivalentes. Neste caso, quando o átomo dopante assume a posição de um átomo do cristal, temos um ausência de um elétron, com o conseqüente surgimento de uma lacuna.
   Portanto, podemos concluir que nos condutores do tipo n, os portadores de carga majoritários são os elétrons livres e nos condutores do tipo p são as lacunas.
   Quando juntos, temos a formação de uma junção do tipo pn, a qual dá origem a várias aplicações envolvendo os semicondutores, tais como diodos e transistores.

Representação esquemática dos Semicondutores tipo n e p.

Representação esquemática da junção pn

      Nas regiões próximas a junções destes semicondutores, temos a formação da camada de depleção. Nesta camada, ocorre a união dos elétrons livres provenientes do tipo n com as lacunas que estão no tipo p. Sendo assim, temos a formação de vários íons e o estabelecimento de uma barreira de potencial para a passagem dos elétrons.
    Quando ligamos os semicondutores a uma fonte de tensão, temos duas possíveis situações. Quando a polarização é direta, ou seja, liga-se o pólo positivo da fonte ao semicondutor tipo p e o pólo negativo ao semicondutor tipo n, os elétrons livres presentes no lado n tende a circular em direção ao pólo positivo enquanto que as lacunas presentes no lado p tende a circular em direção ao pólo negativo da fonte, combinando-se com os íons presentes na região de depleção, a qual diminui. Dessa forma, desde que a tensão da fonte seja superior à barreira de potencial do semicondutor, teremos uma corrente incessante.


   No caso de uma polarização reversa, temos que a ligação é feita de forma que o pólo positivo da fonte fique ligado ao semicondutor tipo n e o pólo negativo da fonte esteja ligado ao do tipo p. Dessa forma, os elétrons presentes na região do tipo n tende a circular em direção ao pólo positivo e as lacunas do lado p em direção ao pólo negativo, ou seja, eles se afastam da região de depleção, que vai aumentando. Em determinado momento a diferença de potencial na camada de depleção será igual a tensão da fonte, sendo cessado este tipo de movimento dos elétrons. Porém, devido a agitação térmica, continuam sendo formados elétrons e lacunas, os quais permanecem circulando, constituindo a corrente de portadores minoritários ou corrente de saturação. Uma das razões de o silício ser mais utilizado que o germânio como semicondutor está nesta corrente de saturação que é menor no silício quando comparado com o germânio.
   Além da corrente de saturação, temos também uma corrente de fuga, resultado das impurezas na superfície e imperfeições na estrutura cristalina. A corrente de fuga é uma função do esforço que o material é submetido da mesma forma que a de saturação é função da temperatura.
   Portanto, existem correntes em um diodo polarizado reversamente, sendo estas a maioria das vezes desprezíveis.

   Os semicondutores apresentam uma tensão denominada tensão de ruptura, a partir da qual os matérias são danificados, sendo no caso dos diodos retificadores, ou seja, que conduzem bem em um único sentido, em torno de 50V. A partir desta tensão, os elétrons que formam a corrente de saturação são acelerados de tal forma que conseguem fornecer energia aos demais elétrons, passando estes a estarem livres e constituírem a corrente, de forma que o material passa a conduzir bem. Tal efeito é denominado efeito avalanche.

terça-feira, 11 de janeiro de 2011

Um dos destaques da Consumer Electronics Show 2011 (CES) foram os tablets, os smartphones com tecnologia 4G, TVs 3D e conectadas à internet e os veículos elétricos. Para quem ainda não sabe, a CES é uma das maiores feiras de eletrônicos do mundo que ocorreu este ano no período de 6 a 9 de janeiro em Las Vegas, Estados Unidos. A feira é a responsável por mostrar as tendências da tecnologia através de protótipos apresentados pelas maiores empresas do segmento. Este ano a feira atraiu um público de 140 mil visitantes, superior aos 120 mil do ano anterior. Além disso, o sucesso da feira pode ser constatado pelo público recorde de visitantes de fora dos EUA, que este ano foi de 30 mil pessoas de mais de 80 países.
Como já dito, os tablets ocuparam um lugar de destaque entre os vários stands da feira. Mas afinal, o que são estes tablets? Como o iPad, o mais famoso dos tablets, ainda tem um preço elevado e inacessível para a maioria da população, poucas são as pessoas que conhecem estes aparelhos. Pensando nisso, resolvi fazer uma pesquisa e apresentar aqui uma pequena introdução sobre os tablets.
Tablets


Primeiramente, os tablets são um dispositivo pessoal em forma de prancheta que fornecem serviços como acesso a internet, organização pessoal, visualização de fotos, vídeos, leitura de livros, jornais e revistas além de entretenimento através de jogos. Apresentam telas sensíveis ao toque, dispensando o uso de mouse e teclado.
É uma tecnologia nova que reúne algumas das funcionalidades dos computadores convencionais e smartphones. Mesmo não sendo um concorrente direto dos notebooks e netbooks, o tablet já vem, segundo analistas de mercado, provocando uma diminuição no crescimento das vendas destes. Dados da ABI research apontavam para um venda de 11 milhões de unidades de tablets pelo mundo em 2010. Para este ano, as expectativas são de mais de 50 milhões de unidades vendidas e um mercado que vai valer mais de 25 bilhões de dólares.
Na CES 2011 foi possível notar que as empresas querem acabar com a hegemonia da Apple ,com o iPad, no mercado de Tablets e que isto não será uma tarefa fácil. Ainda mais depois da Apple abrir mão de uma parte de sua margem de lucros para que os tablets chegassem ao preço de US$ 500,00 no mercado americano.
Duas empresas conseguiram destaque com seus tablets: a Motorola e a Research in Motion(RIM).
O modelo da Motorola apresentado na CES 2011 foi o Motorola Xoom. Ele utiliza o sistema operacional do Google, o Android OS 3.0, o Honeycomb. O Honeycomb é voltado especialmente para tablets e permite funcionalidades otimizadas para serviços do Google tais como vídeo chamada via Gtalk, sistema de mapeamento GMaps 5 em 3D , acesso a mais de 10000 livros através do Google eBooks e suporte para conteúdo em flash. Além do Android 3.0, o Xoom apresenta uma tela de 10.1 polegadas com resolução de 1280x800, duas câmeras digitais, uma frontal de 2mp e uma traseira de 5mp, 32 Gb de memória interna e dois núcleos de 1Ghz. O Xoom será lançado no primeiro bimestre de 2011 nos Estados Unidos em parceria com a Verizon, que fornecerá a rede 3G do aparelho. As atualizações para a tecnologia 4G serão feitas ainda no primeiro semestre. O preço ainda não foi divulgado. No Brasil ele deve ser disponibilizado em Abril, segundo Sérgio Buniac, diretor de produtos da Motorola Mobility no Brasil.
A RIM vem fazer frente ao iPad e aos modelos com sistema operacional Android com o BlackBerry PlayBook. Com um sistema operacional próprio, o Tablet OS, da QNX, duas câmeras digitais, uma frontal de 3mp e uma traseira de 5 mp, permitindo vídeos e fotografias, tela de 7 polegadas com resolução de 1024x600, além de dois processadores simétricos de 1Ghz e uma memória de 1Gb. A comunicação com o celulares BlackBerry é possível, além de possuir aplicativos para Kindle e permitir uma comunicação ilimitada por possuir comunicação com aplicativos Flash e Adobe AIR. O tablet da RIM deve está disponível no mercado em setembro de 2011 para os americanos. A RIM o lançará em parceria com a empresa de telefonia Sprint, responsável pela rede 4G do aparelho. No Brasil ainda não existem previsões de lançamento e nem de preço.



Motorola Xoom - CES 2011