Frank de Alcantara
Frank de Alcantara
Pai, marido, professor e engenheiro.
Siga no Twitter

Odisseia da Computação: a linguagem silenciosa do progresso

Odisseia da Computação: a linguagem silenciosa do progresso

No princípio, havia o ábaco, simples e estritamente funcional, riscado na madeira e pontilhado com pedras que contavam histórias nas mãos ásperas dos primeiros civis do Levante. Um instrumento humilde, mas honesto em sua utilidade. Então, veio a inteligência artificial, uma entidade incorpórea, nascida do intelecto humano e empregada na tarefa de pesquisa e escrita. Havia uma beleza austera em sua existência, uma homenagem ao progresso e ao engenho humano. Entre o ábaco e a inteligência artificial, o tempo passou implacavelmente, 70000 luas trilhando seu curso, pontuando a marcha inexorável da humanidade na escuridão do tempo.

Imagem de Unidentified U.S. Army photographer, Public domain, via Wikimedia Commons, licenciada em Domínio Público.

1622: A régua de cálculo. O matemático inglês William Oughtred inventou a régua de cálculo, um dispositivo manual que usava o sistema de logaritmos para realizar cálculos rápidos (ROONEY, 2012).

1801: Tear de Jacquard. Inventado por Joseph Marie Jacquard, este tear usava cartões perfurados para controlar o padrão de tecelagem. Essa foi uma das primeiras instâncias de um processo mecânico sendo controlado por uma forma de “programação” (COPELAND, 2021).

1822: Máquina Diferencial de Charles Babbage. Babbage concebeu a Máquina Diferencial, um dispositivo mecânico para calcular valores de funções matemáticas. Embora Babbage nunca tenha construído completamente uma Máquina Diferencial, a ideia de uma máquina para automatizar cálculos estava clara (SWADE, 2001).

1837: Máquina Analítica de Charles Babbage. Babbage expandiu sua ideia para a Máquina Analítica, que poderia ser programada para realizar qualquer cálculo. Novamente, essa máquina nunca foi totalmente construída, mas a ideia de um dispositivo programável estava presente (SWADE, 2001).

1843: Máquina Analítica e Ada Lovelace. Babbage desenvolve o conceito de uma “máquina analítica”, que seria capaz de executar qualquer tipo de cálculo dado um conjunto de instruções ou um programa. Ada Lovelace, que trabalhou com Babbage, é frequentemente creditada como a primeira programadora, pois ela escreveu o que é considerado o primeiro algoritmo destinado a ser processado por uma máquina (FUCHS, 2022).

1936: Máquina de Turing. Alan Turing apresentou sua ideia de uma “máquina universal” que poderia resolver qualquer problema computável, dado tempo e recursos suficientes. A Máquina de Turing era um dispositivo teórico, mas a ideia provou ser fundamental para o desenvolvimento da ciência da computação (HODGES, 2014).

1936: Alonzo Church apresenta o Cálculo Lambda. Alonzo Church, um dos orientadores de doutorado de Turing, introduz o cálculo lambda. O cálculo lambda é um sistema formal para expressar cálculos baseados em funções. Turing mostraria mais tarde que a máquina de Turing e o cálculo lambda são equivalentes em termos de suas habilidades de computação (CHURCH, 1936).

1937: Claude Shannon aplica álgebra booleana a circuitos eletrônicos. Shannon publica sua tese de mestrado, “A Symbolic Analysis of Relay and Switching Circuits”. Nesta tese, ele aplicou a álgebra booleana para analisar e otimizar circuitos de relé, que são uma tecnologia chave usada em computadores iniciais (SHANNON, 1938).

1937: George Stibitz e o Complex Number Calculator. Em 1937, George Stibitz, enquanto trabalhava nos Bell Labs, construiu um dispositivo em sua casa que ele chamou de “Model K”. Era um dispositivo de relés eletromecânicos que podia resolver equações com números complexos. Mais tarde, isso evoluiu para o Complex Number Calculator, que foi um dos primeiros exemplos de um computador que poderia ser controlado remotamente via linhas telefônicas (AKERA, 2017).

1938: Konrad Zuse e o Z1. Konrad Zuse, um engenheiro alemão, completou o Z1 em 1938. O Z1 foi um dos primeiros computadores programáveis, embora fosse mecânico em vez de eletrônico (ROONEY, 2012).

1941: Zuse Z3. Zuse continuou a trabalhar em seus designs de computador durante a guerra, apesar de muitos desafios. Em 1941, ele concluiu o Z3, que é muitas vezes considerado o primeiro computador totalmente automático e programável (ROONEY, 2012).

Z3 %Deutsches Museum

Venusianer, CC BY-SA 3.0, via Wikimedia Commons

1943-1944: Colossus. Na Inglaterra, durante a Segunda Guerra Mundial, o computador Colossus foi desenvolvido para decifrar mensagens codificadas pelo sistema de criptografia Lorenz usado pelos alemães. O primeiro Colossus tornou-se operacional em 1944 (COPELAND, 2006).

1944: Harvard Mark I. Aiken, juntamente com a IBM, concluiu a construção do Harvard Mark I, um dos primeiros grandes computadores eletromecânicos (BASHE et al., 1986).

1945: O Relatório de John von Neumann. Embora a construção do ENIAC, um dos primeiros computadores eletrônicos digitais, tenha sido concluída em 1945, o seu projeto já estava em andamento durante a Segunda Guerra Mundial. Além disso, em 1945, John von Neumann produziu o “Relatório sobre o EDVAC” que detalhava a arquitetura de computador que veio a ser conhecida como a Arquitetura de von Neumann (VON NEUMANN, 1945).

1946: ENIAC. O ENIAC, um dos primeiros computadores eletrônicos totalmente digitais, é construído na Universidade da Pensilvânia (STERN, 1981).

1947: Os transistores são inventados nos Bell Labs por John Bardeen, Walter Brattain e William Shockley (RIORDAN; HODDESON, 1998).

1949: O EDSAC, um dos primeiros computadores com programa armazenado, é construído na Inglaterra (WILKES, 1985).

1951: O UNIVAC I, o primeiro computador comercial produzido nos EUA, é lançado pela Remington Rand (BASHE et al., 1986).

1952: O EDVAC, baseado no projeto de von Neumann, é concluído (ENIAC MUSEUM, 2022).

1953: O IBM 701, o primeiro computador produzido em massa por uma grande empresa, é lançado (Pugh et al., 1991).

1954: O FORTRAN, uma das primeiras linguagens de programação de alto nível, é desenvolvido (BACKUS, 1981).

1957: A linguagem de programação LISP é criada por John McCarthy no MIT (MCCARTHY, 1981).

1958: O chip integrado é inventado por Jack Kilby da Texas Instruments (KILBY, 2000).

1958: O projeto “Lourinha”. Entre 1950 e 1960, alunos da Escola Técnica do Exército, atual Instituto Militar de Engenharia (IME), trabalharam no projeto carinhosamente apelidado de “Lourinha”, considerado o primeiro computador desenvolvido em território nacional. Em seu projeto de fim de curso, os primeiros-tenentes Herbert Baptista Fiuza, José Augusto Mariz de Mendonça, Jorge Muniz Barreto, Mário de Moura Alencastro, Walter Mario Lace e Edison Dytz desenvolveram o “Lourinha” que foi o primeiro dispositivo analógico-digital capaz de automatizar operações simples (IME, 2022).

1959: O COBOL, uma linguagem de programação voltada para negócios, é lançado (SAMMET, 1981).

1964: O BASIC é criado por John Kemeny e Thomas Kurtz no Dartmouth College (KEMENY; KURTZ, 1985).

1964: O IBM System/360, uma família de computadores principais compatíveis, é anunciado (Pugh et al., 1991).

1969: O Unix é desenvolvido pelos Bell Labs (RITCHIE; THOMPSON, 1978).

1970: A linguagem de programação Pascal é criada por Niklaus Wirth (WIRTH, 1981).

1971: O microprocessador Intel 4004 é lançado (INTEL, 2021).

1972: A linguagem C é criada por Dennis Ritchie (RITCHIE, 1993).

1975: A Microsoft é fundada por Bill Gates e Paul Allen (WALLACE; ERICKSON, 1992).

1983: O TCP/IP se torna o protocolo padrão de networking (LEINER et al., 1985).

1991: A World Wide Web e as primeiras páginas da web são desenvolvidas por Tim Berners-Lee no CERN (BERNERS-LEE, 2000).

1995: O Java é lançado pela Sun Microsystems (GOSLING; MCGILTON, 1996).

1995: O Windows 95 é lançado pela Microsoft (CARROLL, 2020).

2004: O Facebook é lançado (KIRKPATRICK, 2011).

2008: O Bitcoin é descrito em um white paper por Satoshi Nakamoto (NAKAMOTO, 2008).

2010: O iPad da Apple é lançado (APPLE, 2010).

2010: O Instagram é lançado por Kevin Systrom e Mike Krieger (HACHMAN, 2010).

2011: O Watson da IBM vence o Jeopardy! demonstrando avanços na inteligência artificial (MARKOFF, 2011).

2012: O Raspberry Pi, um microcomputador de baixo custo, é lançado no Reino Unido (Upton, 2012).

2013: O Google Glass é anunciado e se torna disponível sob um programa limitado de testes (Google, 2013).

2014: A Microsoft lança o Visual Studio Code, um editor de código-fonte popular (Bright, 2022).

2015: Amazon, Google e Microsoft começam a oferecer serviços de machine learning na nuvem (Metz, 2016).

2016: O aplicativo Pokémon Go se torna um fenômeno global (Wingfield et al., 2016).

2017: O Bitcoin atinge US$ 10.000 pela primeira vez, evidenciando o crescimento das criptomoedas (Rousseau, 2017).

2018: O Facebook enfrenta o escândalo Cambridge Analytica sobre dados de usuários (Isaak; Hanna, 2018).

2019: O ChatGPT é lançado pela Anthropic, demonstrando grandes avanços no processamento de linguagem natural (Anthropic, 2022).

2020: Devido à pandemia de COVID-19, trabalho e educação remotas se tornam mainstream (UNESCO, 2021).

2021: O Metaverso se torna uma nova fronteira, com investimentos de empresas como Meta, Microsoft e Nvidia (Llamas et al., 2022).

2022: A Inteliigência Artificial avança rapidamente com lançamentos como DALL-E 2, AlphaFold 2 e ChatGPT (Sejnowski, 2022).

2023: As ferramentas de Inteligência Artificial se tornam populares e permitem escrever este artigo sem nenhuma interferência humana. Exceto por este parágrafo. Para ser confiável, falta verificar todas as referências. Talvez modifique meus robôs para fazer isso também.

Referências bibliográficas

AKERA, A. Calculating a Natural World: Scientists, Engineers and Computers During the Rise of US Cold War Research. MIT Press, 2017.

Anthropic. Anthropic Debuts AI Assistant Claude. 2022. Disponível em: https://www.anthropic.com. Acesso em: 5 ago. 2022.

APPLE. Apple Launches iPad. 2010. Disponível em: https://www.apple.com/newsroom/2010/01/27Apple-Launches-iPad/. Acesso em: 4 ago. 2022.

APPLE. Apple Reinvents the Phone with iPhone. 2007. Disponível em: https://www.apple.com/newsroom/2007/01/09Apple-Reinvents-the-Phone-with-iPhone/. Acesso em: 4 ago. 2022.

APPLE. Apple Releases iOS SDK. 2008. Disponível em: https://www.apple.com/newsroom/2008/03/06Apple-Releases-iOS-SDK/. Acesso em: 4 ago. 2022.

APPLE. Apple’s App Store Downloads Top 10 Billion. 2011. Disponível em: https://www.apple.com/newsroom/2011/01/22Apple-s-App-Store-Downloads-Top-10-Billion/. Acesso em: 4 ago. 2022.

APPLE. Swift Programming Language. 2014. Disponível em: https://www.apple.com/swift/. Acesso em: 4 ago. 2022.

ASTRONOMER. Astro. 2022. Disponível em: https://www.astronomer.io/astro. Acesso em: 4 ago. 2022.

BASHE, C. J. et al. IBM’s early computers. MIT press, 1986.

BERNERS-LEE, T. Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web. Harper Collins, 2000.

Bright, P. Happy birthday MakeCode! Microsoft’s 5-year-old coding platform for education hits 5M users. 2022. Disponível em: https://www.neowin.net/news/happy-birthday-makecode-microsofts-5-year-old-coding-platform-for-education-hits-5m-users/. Acesso em: 5 ago. 2022.

BURGESS, J.; GREEN, J. YouTube: Online Video and Participatory Culture. John Wiley & Sons, 2013.

CARROLL, P. S. Steve Jobs, Steve Wozniak, and the personal computer revolution. Referencepoint Press, 2020.

CHURCH, A. An unsolvable problem of elementary number theory. American journal of mathematics, p. 345-363, 1936.

COPELAND, B. J. (Ed.). Colossus: The secrets of Bletchley Park’s codebreaking computers. Oxford University Press, 2006.

COPELAND, B. J. The Turing Guide. Oxford University Press, 2017.

DAHL, R. Node.js. About Node.js. 2010. Disponível em: https://web.archive.org/web/20101121005001/http://blog.nodejs.org/2010/11/17/about/. Acesso em: 4 ago. 2022.

FLANAGAN, D.; MATSUMOTO, Y. The Ruby Programming Language. “ O’Reilly Media, Inc.”, 2008.

FUCHS, E. Ada Lovelace: The Making of a Computer Scientist. Bodleian Library, University of Oxford, 2022.

GOSLING, J.; MCGILTON, H. The Java language environment. Sun Microsystems, 1996.

Google. Project Glass. 2013. Disponível em: https://www.blog.google/products/project-glass/. Acesso em: 5 ago. 2022.

HACHMAN, M. Instagram Launches With the Hope of Igniting Communication Through Images. 2010. Disponível em: https://www.pcmag.com/news/instagram-launches-with-the-hope-of-igniting-communication-through-i. Acesso em: 4 ago. 2022.

HEJLSBERG, A. et al. C# language specification. Addison-Wesley Longman Publishing Co., Inc., 2003.

HODGES, A. Alan Turing: The Enigma. Princeton University Press, 2014.

HYKES, S. Docker: an open platform for distributed applications for developers and sysadmins. 2013. Disponível em https://www.docker.com/blog/docker-docker-an-open-platform-for-distributed-applications-for-developers-and-sysadmins/. Acesso em: 4 ago. 2022.

IME. História do IME. Disponível em: https://www.ime.eb.br/index.php/pt/institucional/historia-do-ime. Acesso em: 29 jul. 2022.

INTEL. 4004 Microprocessor. 2021. Disponível em: https://www.intel.com/content/www/us/en/history/museum-story-of-intel-4004.html. Acesso em: 4 ago. 2022.

Isaak, J.; Hanna, M.J. User Data Privacy: Facebook, Cambridge Analytica, and Privacy Protection. Computer, v. 51, n. 8, pp. 56-59, 2018.

KEMENY, J. G.; KURTZ, T. E. Back to BASIC: the history, correlation, and future of the programming language. Addison-Wesley, 1985.

KILBY, J. S. Miniaturized electronic circuits. US Patent 3,138, 743, issued June 23, 1964.

KIRKPATRICK, D. O efeito Facebook: os bastidores da história da empresa que conecta o mundo. Intrínseca, 2011.

LEINER, B. M. et al. The evolution of the Internet as a global information system. International Journal of Computer Communication, v. 19, p. 29-61, Aug. 1996. Originally published in: Leiner, Barry M. et al. A brief history of the Internet. ACM SIGCOMM Computer Communication Review, 2009.

LEITCH, T. Wikipedia U: Knowledge, authority, and a liberal education in the digital age. JHU Press, 2014.

LERDORF, R. PHP: a fractal of bad design. 2013. Disponível em: https://www.youtube.com/watch?v=XKFUdmv5RYw. Acesso em: 4 ago. 2022.

Llamas, R. et al. Forecast Overview: Augmented and Virtual Reality Trends to Watch in 2022. 2022. Disponível em: https://www.gartner.com/en/doc/498732-forecast-overview-augmented-and-virtual-reality-trends-to-watch-in-2022. Acesso em: 5 ago. 2022.

Markoff, J. Computer Wins on ‘Jeopardy!’: Trivial, It’s Not. The New York Times, 16 fev. 2011. Disponível em https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html. Acesso em: 5 ago 2022.

MCCARTHY, J. History of Lisp. In: History of programming languages I. ACM, 1981. p. 173-185.

Metz, C. Microsoft researchers win ImageNet computer vision challenge. 2016. Disponível em: https://www.technologyreview.com/2016/10/03/155251/microsoft-researchers-win-imagenet-computer-vision-challenge/. Acesso em: 5 ago. 2022.

NAKAMOTO, S. Bitcoin: A peer-to-peer electronic cash system. Decentralized Business Review, p. 21260, 2008.

PATEL, N. Google Chrome browser review. 2008. Disponível em: https://www.engadget.com/2008-09-02-google-chrome-browser-review.html. Acesso em 4 ago. 2022.

PUGH, E. W. et al. IBM’s 360 and early 370 systems. MIT press, 1991.

RITCHIE, D. M. The development of the C language. In: History of programming languages II. ACM, 1993. p. 671-698.

RITCHIE, D. M.; THOMPSON, K. The UNIX time-sharing system. The Bell System Technical Journal, v. 57, n. 6, p. 1905-1929, 1978.

RIORDAN, M.; HODDESON, L. Crystal fire: The invention of the transistor and the birth of the information age. WW Norton & Company, 1998.

ROONEY, A. A Brief History of Computing. Springer Science & Business Media, 2012.

ROUSSEAU, P. Bitcoin hits $10,000! 2017. Disponível em: https://www.forbes.com/sites/pamelaambler/2017/11/28/bitcoin-breaks-10000/. Acesso em: 5 ago. 2022.

SAMMET, J. E. The early history of COBOL. In: History of programming languages I. ACM, 1981. p. 199-243.

SARNO, D. Twitter creator Jack Dorsey illuminates the site’s founding document. Part I. Los Angeles Times, 18 fev. 2009. Disponível em: https://www.latimes.com/business/technology/la-fi-twitter-documents-founding-story-2009-story.html. Acesso em: 4 ago. 2022.

SEVERANCE, C. Javascript: Designing a Language in 10 Days. Computer, v. 45, n. 2, p. 7-8, fev. 2012.

SEJNOWSKI, T.J. 2022: The Year AI Will Start Paying Off. The Wall Street Journal, 3 jan. 2022. Disponível em: https://www.wsj.com/articles/2022-the-year-ai-will-start-paying-off-artificial-intelligence-deep-learning-technology-11640996403. Acesso em: 5 ago. 2022.

SHANNON, C. E. A symbolic analysis of relay and switching circuits. Electrical Engineering, v. 57, n. 12, p. 713-723, 1938.

STERN, N. From ENIAC to UNIVAC: An appraisal of the Eckert-Mauchly computers. Digital Press, 1981.

SWADE, D. D. The difference engine: Charles Babbage and the quest to build the first computer. Penguin, 2001.

UNESCO. Adverse consequences of school closures. 2021. Disponível em: https://en.unesco.org/covid19/educationresponse/consequences. Acesso em: 5 ago. 2022.

UPTON, E. Introducing Raspberry Pi. Raspberry Pi, 2012. Disponível em https://www.raspberrypi.com/blog/introducing-raspberry-pi/. Acesso em: 5 ago. 2022.

VAN ROSSUM, G.; DRAKE JR, F. L. Python language reference manual. Network Theory, 2003.

VIGNEAU, E. A History of Ethereum Constantinople & Metropolis Upgrades. 2019. Disponível em: https://www.cryps.info/a-history-of-ethereum-constantinople-metropolis-upgrades/. Acesso em: 4 ago. 2022.

VISE, D. A.; MALSEED, M. The Google story: Inside the hottest business, media and technology success of our time. Delta Trade Paperbacks, 2007.

VON NEUMANN, J. First draft of a report on the EDVAC. IEEE Annals of the History of Computing, v. 15, n. 4, p. 27-75, 1993. Originally written in 1945.

WALLACE, J.; ERICKSON, J. Hard drive: Bill Gates and the making of the Microsoft empire. John Wiley & Sons, Inc., 1992.

WILKES, M. V. Memoirs of a computer pioneer. MIT Press, 1985.

WINGFIELD, N. et al. Pokémon Go Brings Augmented Reality to a Mass Audience. The New York Times, 11 jul. 2016. Disponível em https://www.nytimes.com/2016/07/12/technology/pokemon-go-brings-augmented-reality-to-a-mass-audience.html. Acesso em: 5 ago. 2022.

WIRTH, N. The programming language Pascal. Acta informatica, v. 1, n. 1, p. 35-63, 1971.