Working languages:
English to Indonesian
Indonesian to English
French to Indonesian

Sylvania Hutagalung
Architecture and Art Specialties

Indonesia
Local time: 22:31 WIB (GMT+7)

Native in: Indonesian Native in Indonesian
  • PayPal accepted
  • Send message through ProZ.com
Feedback from
clients and colleagues

on Willingness to Work Again info
No feedback collected
Account type Freelance translator and/or interpreter
Data security Created by Evelio Clavel-Rosales This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations This person is not affiliated with any business or Blue Board record at ProZ.com.
Services Software localization, Voiceover (dubbing), Translation, Copywriting, Editing/proofreading, Native speaker conversation, Interpreting, Subtitling, Transcription
Expertise
Specializes in:
Art, Arts & Crafts, PaintingConstruction / Civil Engineering
Engineering (general)Engineering: Industrial
IT (Information Technology)Internet, e-Commerce
Materials (Plastics, Ceramics, etc.)Mechanics / Mech Engineering
Media / MultimediaPhotography/Imaging (& Graphic Arts)

Payment methods accepted Visa, MasterCard, PayPal, Wire transfer | Send a payment via ProZ*Pay
Portfolio Sample translations submitted: 2
English to Indonesian: Membangun Distopia Demi Sebuah Klik
General field: Tech/Engineering
Detailed field: Computers: Systems, Networks
Source text - English
We're building a dystopia just to make people click on ads

So when people voice fears of artificial intelligence, very often, they invoke images of humanoid robots run amok. You know? Terminator? You know, that might be something to consider, but that's a distant threat. Or, we fret about digital surveillance with metaphors from the past. "1984," George Orwell's "1984," it's hitting the bestseller lists again. It's a great book, but it's not the correct dystopia for the 21st century. What we need to fear most is not what artificial intelligence will do to us on its own, but how the people in power will use artificial intelligence to control us and to manipulate us in novel, sometimes hidden, subtle and unexpected ways. Much of the technology that threatens our freedom and our dignity in the near-term future is being developed by companies in the business of capturing and selling our data and our attention to advertisers and others: Facebook, Google, Amazon, Alibaba, Tencent.

Now, artificial intelligence has started bolstering their business as well. And it may seem like artificial intelligence is just the next thing after online ads. It's not. It's a jump in category. It's a whole different world, and it has great potential. It could accelerate our understanding of many areas of study and research. But to paraphrase a famous Hollywood philosopher, "With prodigious potential comes prodigious risk."

Now let's look at a basic fact of our digital lives, online ads. Right? We kind of dismiss them. They seem crude, ineffective. We've all had the experience of being followed on the web by an ad based on something we searched or read. You know, you look up a pair of boots and for a week, those boots are following you around everywhere you go. Even after you succumb and buy them, they're still following you around. We're kind of inured to that kind of basic, cheap manipulation. We roll our eyes and we think, "You know what? These things don't work." Except, online, the digital technologies are not just ads. Now, to understand that, let's think of a physical world example. You know how, at the checkout counters at supermarkets, near the cashier, there's candy and gum at the eye level of kids? That's designed to make them whine at their parents just as the parents are about to sort of check out. Now, that's a persuasion architecture. It's not nice, but it kind of works. That's why you see it in every supermarket. Now, in the physical world, such persuasion architectures are kind of limited, because you can only put so many things by the cashier. Right? And the candy and gum, it's the same for everyone, even though it mostly works only for people who have whiny little humans beside them. In the physical world, we live with those limitations.

In the digital world, though, persuasion architectures can be built at the scale of billions and they can target, infer, understand and be deployed at individuals one by one by figuring out your weaknesses, and they can be sent to everyone's phone private screen, so it's not visible to us. And that's different. And that's just one of the basic things that artificial intelligence can do.

Now, let's take an example. Let's say you want to sell plane tickets to Vegas. Right? So in the old world, you could think of some demographics to target based on experience and what you can guess. You might try to advertise to, oh, men between the ages of 25 and 35, or people who have a high limit on their credit card, or retired couples. Right? That's what you would do in the past.

With big data and machine learning, that's not how it works anymore. So to imagine that, think of all the data that Facebook has on you: every status update you ever typed, every Messenger conversation, every place you logged in from, all your photographs that you uploaded there. If you start typing something and change your mind and delete it, Facebook keeps those and analyzes them, too. Increasingly, it tries to match you with your offline data. It also purchases a lot of data from data brokers. It could be everything from your financial records to a good chunk of your browsing history. Right? In the US, such data is routinely collected, collated and sold. In Europe, they have tougher rules.

So what happens then is, by churning through all that data, these machine-learning algorithms -- that's why they're called learning algorithms -- they learn to understand the characteristics of people who purchased tickets to Vegas before. When they learn this from existing data, they also learn how to apply this to new people. So if they're presented with a new person, they can classify whether that person is likely to buy a ticket to Vegas or not. Fine. You're thinking, an offer to buy tickets to Vegas. I can ignore that. But the problem isn't that. The problem is, we no longer really understand how these complex algorithms work. We don't understand how they're doing this categorization. It's giant matrices, thousands of rows and columns, maybe millions of rows and columns, and not the programmers and not anybody who looks at it, even if you have all the data, understands anymore how exactly it's operating any more than you'd know what I was thinking right now if you were shown a cross section of my brain. It's like we're not programming anymore, we're growing intelligence that we don't truly understand.

And these things only work if there's an enormous amount of data, so they also encourage deep surveillance on all of us so that the machine learning algorithms can work. That's why Facebook wants to collect all the data it can about you. The algorithms work better.

So let's push that Vegas example a bit. What if the system that we do not understand was picking up that it's easier to sell Vegas tickets to people who are bipolar and about to enter the manic phase. Such people tend to become overspenders, compulsive gamblers. They could do this, and you'd have no clue that's what they were picking up on. I gave this example to a bunch of computer scientists once and afterwards, one of them came up to me. He was troubled and he said, "That's why I couldn't publish it." I was like, "Couldn't publish what?" He had tried to see whether you can indeed figure out the onset of mania from social media posts before clinical symptoms, and it had worked, and it had worked very well, and he had no idea how it worked or what it was picking up on.

Now, the problem isn't solved if he doesn't publish it, because there are already companies that are developing this kind of technology, and a lot of the stuff is just off the shelf. This is not very difficult anymore.

Do you ever go on YouTube meaning to watch one video and an hour later you've watched 27? You know how YouTube has this column on the right that says, "Up next" and it autoplays something? It's an algorithm picking what it thinks that you might be interested in and maybe not find on your own. It's not a human editor. It's what algorithms do. It picks up on what you have watched and what people like you have watched, and infers that that must be what you're interested in, what you want more of, and just shows you more. It sounds like a benign and useful feature, except when it isn't.

So in 2016, I attended rallies of then-candidate Donald Trump to study as a scholar the movement supporting him. I study social movements, so I was studying it, too. And then I wanted to write something about one of his rallies, so I watched it a few times on YouTube. YouTube started recommending to me and auto playing to me white supremacist videos in increasing order of extremism. If I watched one, it served up one even more extreme and auto played that one, too. If you watch Hillary Clinton or Bernie Sanders content, YouTube recommends and auto plays conspiracy left, and it goes downhill from there.

Well, you might be thinking, this is politics, but it's not. This isn't about politics. This is just the algorithm figuring out human behavior. I once watched a video about vegetarianism on YouTube and YouTube recommended and autoplayed a video about being vegan. It's like you're never hardcore enough for YouTube.

(Laughter)

So what's going on? Now, YouTube's algorithm is proprietary, but here's what I think is going on. The algorithm has figured out that if you can entice people into thinking that you can show them something more hardcore, they're more likely to stay on the site watching video after video going down that rabbit hole while Google serves them ads. Now, with nobody minding the ethics of the store, these sites can profile people who are Jew haters, who think that Jews are parasites and who have such explicit anti-Semitic content, and let you target them with ads. They can also mobilize algorithms to find for you look-alike audiences, people who do not have such explicit anti-Semitic content on their profile but who the algorithm detects may be susceptible to such messages, and lets you target them with ads, too. Now, this may sound like an implausible example, but this is real. ProPublica investigated this and found that you can indeed do this on Facebook, and Facebook helpfully offered up suggestions on how to broaden that audience. BuzzFeed tried it for Google, and very quickly they found, yep, you can do it on Google, too. And it wasn't even expensive. The ProPublica reporter spent about 30 Dollars to target this category.

So last year, Donald Trump's social media manager disclosed that they were using Facebook dark posts to demobilize people, not to persuade them, but to convince them not to vote at all. And to do that, they targeted specifically, for example, African-American men in key cities like Philadelphia, and I'm going to read exactly what he said. I'm quoting.
They were using "nonpublic posts whose viewership the campaign controls so that only the people we want to see it see it. We modeled this. It will dramatically affect her ability to turn these people out."
What's in those dark posts? We have no idea. Facebook won't tell us.
So Facebook also algorithmically arranges the posts that your friends put on Facebook, or the pages you follow. It doesn't show you everything chronologically. It puts the order in the way that the algorithm thinks will entice you to stay on the site longer.
Now, so this has a lot of consequences. You may be thinking somebody is snubbing you on Facebook. The algorithm may never be showing your post to them. The algorithm is prioritizing some of them and burying the others.

Experiments show that what the algorithm picks to show you can affect your emotions. But that's not all. It also affects political behavior. So in 2010, in the midterm elections, Facebook did an experiment on 61 million people in the US that was disclosed after the fact. So some people were shown, "Today is election day," the simpler one, and some people were shown the one with that tiny tweak with those little thumbnails of your friends who clicked on "I voted." This simple tweak. OK? So the pictures were the only change, and that post shown just once turned out an additional 340,000 voters in that election, according to this research as confirmed by the voter rolls. A fluke? No.

Because in 2012, they repeated the same experiment. And that time, that civic message shown just once turned out an additional 270,000 voters. For reference, the 2016 US presidential election was decided by about 100,000 votes. Now, Facebook can also very easily infer what your politics are, even if you've never disclosed them on the site. Right? These algorithms can do that quite easily. What if a platform with that kind of power decides to turn out supporters of one candidate over the other? How would we even know about it?

Now, we started from someplace seemingly innocuous -- online adds following us around -- and we've landed someplace else. As a public and as citizens, we no longer know if we're seeing the same information or what anybody else is seeing, and without a common basis of information, little by little, public debate is becoming impossible, and we're just at the beginning stages of this. These algorithms can quite easily infer things like your people's ethnicity, religious and political views, personality traits, intelligence, happiness, use of addictive substances, parental separation, age and genders, just from Facebook likes. These algorithms can identify protesters even if their faces are partially concealed. These algorithms may be able to detect people's sexual orientation just from their dating profile pictures.

Now, these are probabilistic guesses, so they're not going to be 100 percent right, but I don't see the powerful resisting the temptation to use these technologies just because there are some false positives, which will of course create a whole other layer of problems. Imagine what a state can do with the immense amount of data it has on its citizens. China is already using face detection technology to identify and arrest people. And here's the tragedy: we're building this infrastructure of surveillance authoritarianism merely to get people to click on ads. And this won't be Orwell's authoritarianism. This isn't "1984."

Now, if authoritarianism is using overt fear to terrorize us, we'll all be scared, but we'll know it, we'll hate it and we'll resist it. But if the people in power are using these algorithms to quietly watch us, to judge us and to nudge us, to predict and identify the troublemakers and the rebels, to deploy persuasion architectures at scale and to manipulate individuals one by one using their personal, individual weaknesses and vulnerabilities, and if they're doing it at scale through our private screens so that we don't even know what our fellow citizens and neighbors are seeing, that authoritarianism will envelop us like a spider's web and we may not even know we're in it.

So Facebook's market capitalization is approaching half a trillion dollars. It's because it works great as a persuasion architecture. But the structure of that architecture is the same whether you're selling shoes or whether you're selling politics. The algorithms do not know the difference. The same algorithms set loose upon us to make us more pliable for ads are also organizing our political, personal and social information flows, and that's what's got to change.

Now, don't get me wrong, we use digital platforms because they provide us with great value. I use Facebook to keep in touch with friends and family around the world. I've written about how crucial social media is for social movements. I have studied how these technologies can be used to circumvent censorship around the world. But it's not that the people who run, you know, Facebook or Google are maliciously and deliberately trying to make the country or the world more polarized and encourage extremism. I read the many well-intentioned statements that these people put out. But it's not the intent or the statements people in technology make that matter, it's the structures and business models they're building. And that's the core of the problem. Either Facebook is a giant con of half a trillion dollars and ads don't work on the site, it doesn't work as a persuasion architecture, or its power of influence is of great concern. It's either one or the other. It's similar for Google, too.

So what can we do? This needs to change. Now, I can't offer a simple recipe, because we need to restructure the whole way our digital technology operates. Everything from the way technology is developed to the way the incentives, economic and otherwise, are built into the system. We have to face and try to deal with the lack of transparency created by the proprietary algorithms, the structural challenge of machine learning's opacity, all this indiscriminate data that's being collected about us.

We have a big task in front of us. We have to mobilize our technology, our creativity and yes, our politics so that we can build artificial intelligence that supports us in our human goals but that is also constrained by our human values. And I understand this won't be easy. We might not even easily agree on what those terms mean. But if we take seriously how these systems that we depend on for so much operate, I don't see how we can postpone this conversation anymore. These structures are organizing how we function and they're controlling what we can and we cannot do. And many of these ad-financed platforms, they boast that they're free. In this context, it means that we are the product that's being sold. We need a digital economy where our data and our attention is not for sale to the highest-bidding authoritarian or demagogue.

(Applause)

So to go back to that Hollywood paraphrase, we do want the prodigious potential of artificial intelligence and digital technology to blossom, but for that, we must face this prodigious menace, open-eyed and now.

Thank you.

(Applause)
Translation - Indonesian
Jadi, ketika orang-orang mengatakan bahwa mereka takut dengan “kecerdasan buatan” (artificial intelligence), sering kali yang mereka bayangkan adalah robot-robot tiruan manusia yang mengamuk. Film Terminator, misalnya. Yah, walau hal tersebut bisa jadi sesuatu yang tetap harus difikirkan, tapi itu masih lama untuk bisa jadi kenyataan.
Atau, kita mungkin resah dengan sistem pengintai digital, dengan satu metafora lama, cerita “1984.” Oh, karya George Orwell ini kembali masuk dalam daftar best seller, lho.
1984 adalah buku yang luar biasa, tapi mungkin bukan distopia yang tepat untuk menggambarkan kondisi abad ke-21. Yang harus kita takutkan bukanlah apa yang bisa dilakukan oleh kecedasan buatan ini kepada kita, tapi bagaimana orang-orang yang punya kuasa akan menggunakan kecerdasan buatan, untuk mengontrol kita, memanipulasi kita, denga cara yang tak biasa, terkadang dalam senyap, samar, dan tak terduga.
Kebanyakan teknologi yang mengancam kebebasan dan martabat kita di masa mendatang, dikembangkan oleh perusahaan yang bergerak dalam bisnis data, terutama yang mengumpulkan dan menjual data dan intensi kita kepada para pengiklan dan pihak-pihak lainnya: Facebook, Google, Amazon, Alibaba, Tesla, Tencent.

Oke, saat ini, bisnis yang bergerak di dalam bidang kecerdasan buatan juga mulai “menyombongkan diri.” Dan memang terlihat, seakan kecerdasan buatan adalah “the next thing” setelah fenomena iklan online. Tapi sebenarnya tidak! Karena ini artinya lompatan dalam kategori, ini sebuah dunia yang benar-benar berbeda. Dia memang punya potensi besar, dia bisa membantu kita berakselerasi dalam memahami banyak hal lebih baik, terutama melalui penelitian. Namun, seperti kata filsuf Hollywood, “Dengan potensi yang luar biasa, ada resiko yang luar biasa juga.”

Sekarang mari kita lihat fakta-fakta mendasar dari dunia digital kita: iklan online, oke.
Kita cenderung akan langsung menutupnya ketika dia muncul. Dia terkesan sepele, tak berpengaruh apa-apa. Kita semua, rasanya, punya pengalaman daring, “dikuntit” oleh iklan akibat jejak pencarian dan apa yang kita baca di internet. Yah, misalnya, ketika kita lihat-lihat tentang sepatu boot, lalu selama seminggu iklan sepatu boot itu mengekori kita kemanapun kita pergi. Walau pun setelah kita “luluh” dan akhirnya beli, iklan sepatu itu tetap ngekor kemana-mana. Kita akhirnya terbiasa dengan cara manipulasi yang murahan seperti ini. Kita sadar, tapi lalu berfikir, “Ya, sudahlah.” Padahal, dunia daring dan teknologi digital bukan cuma masalah iklan.
Nah, sekarang untuk mendudukkan masalahnya, mari berandai-andai dengan contoh yang lebih fisik. Apakah Anda tahu, mengapa di tiap meja kasir di supermarket, selalu dipajang permen dan gula-gula pada level pandang anak-anak? Ini sengaja didesain agar mereka merengek minta dibelikan tepat ketika orang tua mereka hendak melakukan pembayaran. Nah, inilah yang dinamakan rekayasa persuasif. Memang tidak menyenangkan, tapi cara ini berhasil. Karena itu, kita menemukannya di semua supermarket. Jika di dunia fisik cara persuasi seperti ini agak terbatas – yah, karena kita tak bisa meletakkan terlalu banyak barang di meja kasir, kan – dan permen itu (terlihat) sama saja oleh semua orang, dia hanya akan efektif ketika si manusia kecil yang suka merengek itu ikut bersama kita. Di dunia fisik, kita hidup dengan batasan-batasan seperti itu.

Di dunia maya, rekayasa persuasif seperti tadi bisa dibangun dalam skala berjuta kali lebih besar, dia juga menyasar, membaca, memahami, dan bisa diterapkan pada individu, satu per satu dengan mempelajari kelemahan si individu tadi, dan ini dikirimkan ke tiap-tiap layar telepon pintar kita, sehingga tidak terbaca oleh orang lain. Dan di sinilah perbedaannya. Ini hanya satu dari banyak hal-hal mendasar terkait apa yang mampu dilakukan oleh sebuah kecerdasan buatan.

Sekarang, mari ambil contoh. Katakanlah, Anda ingin menjual tiket pesawat ke Vegas, oke. Jika pakai cara lama, Anda harus memikirkan demografi yang menjadi target Anda berdasarkan pengalaman dan kategori yang bisa Anda kira-kira. Misalnya, Anda bisa mencoba mengiklankannya kepada, oh, laki-laki dengan rentang usia 25-35 tahun, atau orang-orang yang tinggi limit kartu kreditnya, atau mungkin pasangan pensiunan. Nah, itu cara lama.

Dengan big data dan mesin pintar, kita tidak pakai cara seperti itu lagi. Untuk bisa membayangkannya, coba fikirkan semua data yang Facebook kumpulkan tentang Anda: setiap status baru yang Anda ketik, setiap obrolan di Messenger, setiap lokasi dimana Anda membuka Facebook, semua foto yang Anda unggah di sana. Ketika Anda mengetik sesuatu, lalu berubah fikiran dan Anda menghapusnya, Facebook tetap mengingatnya dan menganalisanya. Lebih lanjut, dia akan mencocokkanya dengan data luring (offline). Facebook juga “membeli” banyak data tambahan dari para pialang data. Bisa dalam bentuk apa saja, mulai dari data finansial sampai jejak-jejak daring kita. Nah, di Amerika Serikat, data-data seperti ini secara rutin dikumpulkan, disusun, lalu dijual. Di Eropa, mereka punya peraturan yang lebih ketat.

Apa yang terjadi kemudian, dengan mengolah data yang ada, mesin algoritma pintar ini – ini alasan mengapa mereka dinamai “pintar”—akan mencoba mempelajari karakteristik dari orang-orang yang pernah membeli tiket ke Vegas. Ketika mereka mempelajari data-data eksisting, mereka juga mempelajari bagaimana data ini bisa diaplikasikan kepada target baru. Jadi ketika data ini disajikan untuk target baru, algoritma akan mengklasifikasikan, apakah target ini akan berpotensi untuk membeli tiket ke Vegas atau tidak.
Baiklah, Anda mungkin berfikir, “Sebuah tawaran tiket ke Vegas, saya tidak tertarik.” Tapi masalahnya bukan itu. Masalahnya, kita tidak lagi mengerti bagaimana algoritma yang rumit ini bekerja. Kita tidak mengerti bagaimana mereka melakukan kategorisasi. Ini adalah matriks raksasa, dengan ribuan kolom dan baris, mungkin jutaan kolom dan baris, dan tak satupun programer, atau siapapun yang bisa membaca, meski dengan semua data tersaji, mampu memahami bagaimana sistem ini beroperasi. Sama seperti Anda diminta menebak apa yang sedang saya fikirkan dengan melihat irisan bagian dalam dari otak saya. Rasanya kita tidak sedang melakukan programming lagi, kita sedang menumbuhkan satu kecerdasan yang gagal kita pahami sendiri.

Dan sistem ini hanya bisa bekerja jika jumlah data yang tersedia sangat besar. Karena itulah, sistem ini akhirnya mendorong hadirnya sistem pengintai yang memata-matai kita semua, hanya agar algoritmanya bisa bekerja lebih baik.

Mari berandai-andai lebih jauh dengan tiket ke Vegas tadi. Bagaimana jika sistem yang tidak kita mengerti tadi mengatakan bahwa ternyata lebih mudah menjual tiket ke orang-orang yang mengidap bipolar dan sedang dalam fase manic. Orang seperti ini biasanya punya kecenderungan untuk belanja berlebihan dan jadi penjudi yang kompulsif. Begitulah si sistem bekerja, dan Anda sama sekali tidak bisa menebak bahwa dia akan menyarankan ini. Saya suka melemparkan contoh ini kepada para ahli komputer, dan suatu hari ada satu yang datang kepada Saya. Dia terlihat gusar lalu berkata, “Karena alasan inilah saya tidak bisa mempublikasinnya.” Lalu saya bertanya balik, “Mempublikasikan apa?” Ternyata dia mencoba mengamati apakah kita akan menyadari gejala “kegilaan” yang terjadi akibat postingan di media sosial sebelum gejala klinisnya terlihat, dan pengamatannya terbukti, terbukti dengan sangat jelas, dan dia tak mengerti bagaimana itu bisa terjadi, atau apa yang sebenarnya sedang terjadi.

Nah, masalah tetap tak terpecahkan hanya karena dia batal mempublikasikan temuannya, karena ada banyak perusahaan yang akan tetap mengembangkan teknologi serupa, dan kita bisa menemukannya dengan mudah. Ini bukan hal yang rumit lagi.
Apakah Anda pernah berselancar di YouTube, artinya menonton satu video dan sejam kemudian, tiba-tiba, Anda sudah menonton 27 video? Anda tentu tahu kalau YouTube punya kolom di sisi kanan yang bertuliskan, “selanjutnya” dan bagian ini yang kemudian melakukan autoplay terus menerus. Inilah sang algoritma yang mencoba menebak apa yang kira-kira menjadi minat Anda tanpa Anda harus membuat pilihan sendiri. Ini bukan editor manusia, inilah cara kerja algoritma. Dia membaca apa yang pernah Anda tonton, dan yang ditonton oleh orang-orang lain yang seperti Anda, lalu menyimpulkan bahwa mungkin itulah yang menarik bagi Anda, yang akan Anda inginkan, dan karenanya menyajikannya lebih banyak lagi kepada Anda. Terdengar seperti sebuah fitur yang ramah dan berguna, sampai kita menyadari sebaliknya.

Jadi, di tahun 2016 lalu, saya mengikuti rangkaian kampanye calon presiden Trump, untuk mempelajari – saya peneliti – gerakan-gerakan yang mendukung beliau. Saya memang mempelajari fenomena gerakan sosial, jadi ini menjadi bagian penelitian saya juga. Suatu hari, saya ingin menulis artikel tentang salah satu kampanye tersebut, jadi saya menontonnya di YouTube berulang-ulang. YouTube kemudian mulai merekomendasikan dan melakukan autoplay video-video tentang white supremacy dengan kadar yang semakin ekstrim di tiap videonya. Kalau saya menonton satu saja dari video itu, si sistem akan menyajikan video lain yang lebih ekstrim dan memutarnya secara otomatis. Kalau Anda menonton Hillary Clinton atau Bernie Sanders, YouTube akan merekomendasikan dan memutar otomatis video-video tentang “konspirasi kiri,” dan kita akan dihisap masuk lebih dalam ke topik itu.

Oke, Anda mungkin akan berfikir bahwa ini karena topiknya politik, tapi TIDAK. Ini bukan tentang politik. Inilah algoritma yang mencoba mempelajari perilaku manusia. Suatu kali, saya pernah menonton video tentang gaya hidup vegetarian, lalu YouTube merekomendasikan dan memutar otomatis sebuah video tentang menjadi vegan. Seakan saya tidak cukup “garis keras” bagi YouTube.

(tertawa)

Apa yang sebenarnya terjadi? Karena sistem algoritma YouTube itu sifatnya tertutup, jadi tebakan saya, sang algoritma mungkin menyimpulkan, jika dia bisa memancing orang untuk menonton tayangan-tayangan yang berbau “hardcore” maka dia bisa “menahan” mereka untuk menonton lebih banyak video sembari Google menyajikan iklan tanpa mereka sadari. Nah, karena belum pernah ada yang berfikir tentang etik dalam praktik seperti ini sebelumnya, situs-situs ini akhirnya melakukan profiling, orang-orang yang membenci Yahudi, misalnya, yang berfikir bahwa Yahudi adalah parasit dan menyukai konten-konten anti-semit yang eksplisit, yang lalu membuat mereka menjadi target iklan daring. Situs-situs seperti ini juga mampu memanfaatkan algoritma untuk mencarikan Anda, audiens lain yang mirip namun tanpa konten anti-semit yang eksplisit, dan memberikan Anda target lain untuk iklan Anda. Mungkin ini terdengar sedikit tidak masuk akal, tapi inilah yang sedang terjadi sekarang.

ProPublica pernah menginvestigasi hal ini dan menemukan bahwa Anda bisa melakukan hal serupa di Facebook, dan Facebook bahkan secara terang-terangan menawarkan bantuan untuk meluaskan cakupan audiens Anda. BuzzFeed pernah mencobanya untuk Google, dan dalam waktu singkat, mereka mengerti, ya, Anda bisa melakukannya juga di Google. Dan ini sama sekali tidak mahal. Reporter ProPublica hanya menghabiskan 30 dollar Amerika untuk layanan di satu kategori.

Baiklah, tahun lalu, menejer media sosial Donald Trump mengungkapkan bahwa mereka ikut menggunakan “dark posts” di Facebook untuk mendemobilisasi massa. Tidak dengan membujuk, melainkan meyakinkan massa untuk tidak menggunakan hak pilihnya sama sekali. Dan untuk tujuan ini, mereka menargetkan kategori tertentu, contohnya, laki-laki dari ras Afro-Amerika di kota-kota kunci seperti Philadelphia, dan saya akan membacakan, tepatnya kalimat beliau. Saya kutip, “… posting-posting non-publik yang pemirsanya kami kontrol sehingga hanya orang-orang yang kami inginkan yang bisa melihatnya. Kami membuat permodelan ini. Dan ini sangat membantu dalam usaha merubah preferensi orang-orang.”
Apa yang ada di dalam dark posts? Tak ada yang tahu. Facebook pun tak akan membukanya.

Nah, Facebook pun, secara algoritmik, mengatur tiap posting yang dibuat oleh teman-teman Anda, atau laman-laman yang Anda ikuti. Sistem tidak akan menunjukkan hal ini secara kronologis. Dia akan mengaturnya sedemikian rupa, menurut logika algoritma, sehingga Anda akan betah berlama-lama main Facebook.

Hal ini menimbulkan banyak konsekwensi. Ketika Anda berfikir ada yang ingin menyerang Anda di Facebook, si algoritma akan mengatur agar pihak-pihak ini tidak sampai melihat dan membaca postingan Anda. Algoritma akan memprioritaskan beberapa hal dan menyembunyikan sisanya.

Ada sebuah percobaan yang menunjukkan bahwa pilihan-pilihan dari algoritma ini bisa mempengaruhi emosi Anda. Tapi itu belum semuanya. Dia juga bisa mempengaruhi sikap politik Anda. Jadi, ceritanya, di tahun 2010, pada tengah-tengah masa kampanye, Facebook melakukan eksperimen terhadap 61 juta orang di Amerika Serikat dengan cara mengungkapkan sebuah fakta kepada mereka. Sebagian disuguhi tulisan ‘hari ini Pemilu,’ cukup sederhana. Sebagian yang lain “dicolek” oleh logo notifikasi dari teman-teman mereka yang sudah meng-klik “I voted.” Colekan yang remeh, oke. Jadi perbedaannya hanya pada gambar, dan tiap orang hanya terpapar satu kali saja. Namun terbukti bisa menggiring tambahan 340.000 pemilih pada Pemilu tersebut, seperti yang dilansir dari data asli penelitian yang juga dikonfirmasi oleh daftar pemilih resmi.
Sebuah kebetulan? TIDAK!

Karena di tahun 2012, mereka mengulangi percobaan yang sama. Dan saat itu, pesan layanan masyarakat ini menghasilkan tambahan 270.000 pemilih. Sebagai informasi, di tahun 2016, hasil akhir dari Pemilu presiden Amerika Serikat, ditentukan oleh selisih 100.000 suara. Dan sekarang Facebook bisa dengan mudah membaca pilihan politik Anda meskipun Anda tidak pernah mengungkapkannya di Facebook. Algoritma bisa menerkanya dengan mudah. Sekarang bayangkan, bagaimana jika sebuah platform, dengan kemampuan seperti itu, memilih untuk “menggiring” pendukung satu kandidat berpindah ke kandidat lainnya? Bagaimana kita bisa menyadarinya?

Kita mungkin mulai dari satu laman yang terlihat tidak berbahaya – iklan online yang menguntit kita kemana-mana – dan kita berakhir di tempat lain, entah di mana. Sebagai orang awam dan sekaligus warga negara, kita tak lagi tahu apakah kita semua sedang melihat informasi yang sama atau apakah yang sedang dilihat orang lain saat ini. Dan tanpa basis informasi yang sama, sedikit demi sedikit, debat publik akan semakin sulit terjadi, dan kita sudah berada di fase awal dari kondisi ini. Algoritma-algoritma ini dengan mudah membaca etnisitas, agama dan sikap politik, ciri-ciri personal, kecerdasan, tingkat kebahagiaan, kencaduan, perceraian orang tua, usia dan gender, hanya dari likes di Facebook. Algortima ini bisa mengidentifikasi pengunjuk rasa, bahkan jika wajahnya ditutup sebagian. Dia juga bisa mendeteksi orientasi seksual hanya dari foto profil di aplikasi layanan kencan yang digunakan.

Oke, ini mungkin hanya tebak-tebakan secara probabilitas, jadi tidak 100 persen benar. Tapi saya tidak melihat pihak-pihak yang berkuasa mampu menahan godaan untuk tidak “memanfaatkan” teknologi ini hanya karena faktor “ketidakpastian” minor, yang memang, bisa menjadi lapis-lapis masalah baru. Bayangkan apa yang bisa negara lakukan dengan jumlah data penduduknya yang sangat besar. Tiongkok sudah menggunakan teknologi pengenal wajah untuk mengidentifikasi dan menangkap seseorang. Dan ini menjadi tragedi: kita membangun infrastruktur otoriter untuk pengintaian hanya agar orang meng-klik sebuah iklan. Dan ini tak sama dengan otoritarianisme ala Orwel. Ini bukan cerita “1984”.

Sekarang, jika otoritarianisme menggunakan ketakutan yang terbuka ini untuk menteror kita, kita bisa jadi akan ketakutan, tapi kita akan menyadarinya, membencinya, dan melawannya. Tapi jika pihak-pihak berkuasa menggunakan algoritma ini untuk, secara diam-diam, memantau, menilai, mengarahkan kita, memprediksi dan mengidentifikasi pengacau dan pemberontak, untuk dalam skala besar, menyebarkan rekayasa persuasif ini dan memanipulasi orang per orang melalui kelemahan dan kerentanannya, melalui layar telepon pribadi kita masing-masing, disanalah otoritarianisme akan memerangkap kita, seperti jerat laba-laba, dan kita bahkan tak menyadarinya.

Saat ini, kapitalisasi pasar Facebook sudah mendekati angka setengah triliun Dollar Amerika karena dia sangat berhasil sebagai sebuah rekayasa persuasif. Tapi struktur dari sistem rekayasa ini seragam, entah untuk menjual sepatu atau menjual politik. Algoritma tidak akan bisa membedakannya. Algoritma yang diaplikasikan untuk membuat kita terbuka dengan iklan, adalah algortima yang sama yang mengatur arus informasi terkait pilihan politik, kepribadian, dan kondisi sosial kita semua. Dan hal ini harus berubah!

Saya berharap kita tidak salah paham dengan berfikir bahwa menggunakan platform digital adalah hal yang haram. Tidak! Dia berguna bagi kita. Saya menggunakan Facebook untuk menjaga silaturahmi dengan teman dan sanak saudara di manapun mereka berada. Saya pernah menulis tentang pentingnya peran media sosial dalam gerakan-gerakan sosial. Saya juga mempelajari bagaimana teknologi ini membantu menekuk kebijakan sensor di seluruh dunia. Orang-orang di balik Facebook dan Google juga tidak serta menjadi penjahat, yang dengan sengaja membuat polarisasi dan mendorong hadirnya ekstrimisme. Saya membaca ada banyak pernyataan sikap dan itikad baik dari pihak-pihak ini. Tapi, yang menjadi poin penting bukan pernyataan sikap dari para pemimpin ini, namun struktur dan model bisnis yang mereka bangun. Itulah inti dari seluruh permasalahannya. Akhirnya, jika Facebook tidak ingin dianggap melakukan penipuan senilai setengah triliun Dolar Amerika, maka dia harus steril dari iklan dan tidak boleh menggunakan metoda rekayasa persuasif. Kalau tidak, pengaruh dan kuasanya akan menjadi tanda tanya besar. Dia harus memilih. Hal yang sama juga ditujukan untuk Google.

Nah, sekarang, apa yang bisa kita lakukan? Harus ada perubahan!
Kita tidak bisa berharap pada cara instan karena kita harus merestrukturisasi seluruh perangkat operasional teknologi digital saat ini. Seluruhnya, mulai dari bagaimana teknologi dikembangkan hingga bagaimana insentif, ekonomi, dan hal-hal sebaliknya, dimasukkan ke dalam sistem. Kita harus berhadapan dengan kondisi minimnya transparansi karena konsekwensi paten dari algoritma, juga kendala-kendala struktural dari tertutupnya sistem kerja mesin-pintar, alasan yang membuat data-data kita semua akhirnya dipakai secara serampangan tanpa pandang bulu.

Kita punya tugas berat ke depannya. Kita harus mendayagunakan teknologi yang kita punya, kreatifitas kita, dan, tentu, kekuatan politik kita, untuk membangun sebuah sistem kecerdasan buatan yang bisa menopang tujuan-tujuan kita sebagai manusia, yang saat ini sedang tersandera oleh nilai-nilai kita sendiri sebagai manusia. Dan saya mengerti hal ini tidak mudah, karena untuk merumuskan maksud dan tujuan ini pun kita mungkin akan sulit untuk bersepakat. Tapi jika kita melihat betapa seriusnya ketergantungan kita pada sistem ini, saya tidak melihat alasan untuk kita menunda pembicaraan ini lebih lama lagi. Struktur ini menata bagaimana kita melakukan fungsi-fungsi sosial kita dan mereka mengatur apa yang boleh dan tidak boleh kita lakukan. Dan platform digital yang didanai oleh iklan ini, secara terbuka, mendeklarasikan bahwa mereka gratis. Artinya, dalam konteks ini, kitalah komoditas yang sedang dijual. Kita membutuhkan sebuah sistem ekonomi digital yang bisa mencegah data dan atensi kita dilelang bebas pada otoritarianisme atau demagog.

(tepuk tangan)

Jadi, kembali pada peribahasa Hollywood tadi, kita memang harus memanfaatkan potensi besar dari kecerdasan buatan dan teknologi digital, tapi untuk itu, kita harus siap menghadapi ancaman yang luar biasa, yang harus disadari, SAAT INI.

Terima kasih.

(tepuk tangan)
Indonesian to English: The History of the Church of Our Lady of Assumption
General field: Other
Detailed field: Architecture
Source text - Indonesian
Katedral Santa Maria Pelindung Diangkat ke Surga
Abad 20

Gereja Katedral Santa Maria Pelindung Diangkat ke Surga lebih dikenal dengan nama Katedral Jakarta. Gereja ini dianggap sebagai “yang liyan” dalam arsitektur gereja di Indonesia karena menjadi satu-satunya gereja Katolik dengan detail Neo Gotik paling halus. Gereja ini pernah dianggap sebagai bangunan yang mempunyai struktur yang terlalu kuat. Dirancang dan dibangun dengan proses yang cukup berliku membuat Katedral Jakarta cukup matang secara proses.

Gereja di Sudut Lapangan Waterloo
Semua bermula dari kejadian ambruknya satu-satunya gereja Katolik yang telah digunakan selama 60 tahun di Weltevreden. Dari sanalah muncul keinginan untuk membangun sebuah gereja baru. Pastor Antonius Dijkmans SJ ditunjuk untuk merencanakan dan membangun gereja baru ini. Dijkmans datang ke Batavia pada tahun 1888, yaitu dua tahun sebelum gereja lama rubuh pada April 1890. Sebelumnya ia pernah mendapat pendidikan arsitektur gerejani dari Viollet-le-Duc di Perancis.

Gereja baru ini direncanakan berdiri di atas lokasi gereja lama, yaitu tanah bekas kediaman seorang panglima tentara Belanda bernama Jendral de Kock yang dibeli oleh umat Katolik di Batavia pada tahun 1828. Lokasi tanah tersebut berada di sudut barat laut Waterlooplein (sekarang Lapangan Banteng). Kawasan ini dikembangkan pada masa Gubernur Jenderal Daendels di abad ke-17, dan merupakan daerah pusat kota baru di Batavia. Tak jauh dari gereja ini terdapat istana yang digagas oleh Daendels, yang saat ini menjadi kantor Kementerian Keuangan.

Hanya beberapa bulan setelah gereja lama ambruk, Dijkmans telah menyelesaikan rancangan gereja barunya. Proses pembangunan dimulai dengan ditandatanganinya kontrak antara Mgr. Claessens dan seorang pengusaha batu bata bernama Leykam terkait pembelian 3 juta batu bata yang berukuran sesuai contoh yang telah ditetapkan.

Pondasi bangunan mulai dikerjakan pada pertengahan tahun 1891. Namun, baru satu tahun pekerjaan berlangsung, proses konstruksi terpaksa dihentikan karena kekurangan biaya. Adolf Heuken, dalam bukunya “Gereja-gereja Tua di Jakarta,” mengatakan bahwa pada tahun 1894, Dijkmans terpaksa pulang ke Belanda dengan kecewa. Malangnya, kondisinya yang sakit parah membuatnya tak pernah kembali. Beliau meninggal dunia pada tahun 1922 di Belanda. Selama enam tahun pekerjaan pembangunan gereja terhenti, sehingga kegiatan ibadah harus dilaksanakan di garasi pastoran.

Baru pada tahun 1898, pembangunan katedral ini dapat dilanjutkan setelah uskup baru, Mgr E. Luypen SJ, mengumpulkan dana dari Belanda dan menunjuk Ir. M. J. Hulswit untuk meneruskan pembangunan katedral yang terhenti. Hulswit menyelesaikan proses konstruksi dalam waktu 3 tahun dengan bantuan para tukang lokal yang tidak berpengalaman dan para tukang kayu keturunan Tionghoa untuk pekerjaan atap. Akhirnya gereja yang diberi nama De Kerk van Onze Lieve Vrouw ten Hemelopneming ini dapat diselesaikan dan diresmikan pada tanggal 21 April 1901 dengan sebuah upacara besar yang dihadiri oleh pejabat-pejabat Belanda serta umat Katolik Batavia.

Pada masa pendudukan Jepang, bangunan ini sempat dicat dengan warna hijau untuk melindunginya dari serangan bom pada malam hari. Warna hijau ini tetap bertahan hingga dilakukannya pemugaran pada tahun 1988, dimana katedral ini kemudian dicat dengan warna mirip material semen dan penutup atap diganti dengan tembaga.


Menara Baja dan Karya Seni Tinggi

Denah dasar katedral masih meniru denah Basilika dengan sempurna. Berbentuk salib dengan panjang 60 meter, pada bagian depan terdapat narthex yang berfungsi sebagai lobi, kemudian bagian selanjutnya terdiri dari lorong tengah (nave) yang diapit lorong samping (aisle) memanjang yang berujung pada altar yang berbentuk setengah lingkarang (apse).

Langit-langitnya menerapkan bentuk kubah berusuk (ribbed vault) dengan ketinggian 17 meter dari permukaan lantai dan terbuat dari kayu. Pemilihan material ini untuk mengantisipasi gempa bumi yang sering terjadi di Indonesia. Dinding katedral ini terbuat dari batu bata tebal dan berfungsi sebagai dinding pemikul beban. Dinding tersebut kemudian diplester dan diberi motif seperti batu alam. Kuda-kuda kayu jati berbentang lebar, dikerjakan tukang-tukang Kwongfu. Sadar akan harga diri profesinya, mereka dengan bangga membuat inskripsi tanda namanya dengan memakai huruf Mandarin.

Gereja Katedral Jakarta memiliki tiga buah menara yaitu Menara Daud dan Menara Gading pada sisi timur, dan Menara Angelus Dei pada bagian atas pusat denah salib. Ketiga menara ini terbuat dari baja, di antara kedua menara sisi timur terdapat sebuah Jendela Roseta (Jendela Mawar) khas gereja Gotik yang melambangkan Rosa Mystica, yakni Bunda Maria.

Interior katedral dipenuhi karya seni yang tinggi. Salah satunya adalah sebuah lukisan dinding dari keramik karya Th. Moelkeboer, yang menceritakan tentang jalan salib. Lukisan tersebut dibuat di Belanda dengan gaya mendekati Amsterdamsche School dan ditempatkan di gereja ini pada tahun 1911. Mimbar dengan ukiran yang sangat indah dibuat oleh Te Popel dan Stoltefuβ (Den Haag), dipasang pada tahun 1905. Terdapat juga altar St. Maria (1915) yang menggambarkan pengangkatan Bunda Maria ke surga dan altar St. Josef (1922) yang memperlihatkan Santo Josef melindungi sebuah gereja; masing-masing berada pada bagian sisi samping altar di muka. Altar utama yang ada saat ini merupakan hadiah dari gereja Jesuit di Groningen pada tahun 1956, walaupun pengerjaannya sudah dilakukan sejak abad 19. Banyak benda-benda bersejarah milik gereja saat ini disimpan dan dipamerkan di Museum Katedral.
Translation - English
The Church of Our Lady of Assumption
20th century

The Church of Our Lady of Assumption is known as the Cathedral of Jakarta. This church is considered as “the other” because it exhibits the finest and the most intricate Neo Gothic’s details compared to any Catholic churches in Indonesia to date. The structure was once considered as too sturdy. This church was built gradually and thoroughly which gives it enough time to be perfected during the construction process.

A Great Church By the Waterloo Square
It was all begun when the only Catholic church in Weltevreden which had been in use for more than 60 years, collapsed. A plan to build a new and more proper church was conceived and Antonius Dijkmans SJ, a Catholic priest who had acquired a proper training on church architecture from Violet-le-Duc in French, was appointed to design the new church. Dijkmans arrived in Batavia in 1888, two years prior to the collapse of the old church in April 1990.

The new church was planned to be built upon the ruins of the former church which was a former residence of General de Kock, a Governor-General for Batavian Navy, that was located at northwest of Waterlooplein (today Lapangan Banteng). The Catholics in Batavia bought the land in 1828 upon where they built the first church. Waterlooplein was aimed to be the center of the newly developed Weltevreden during the Daendels’ administration. The location of the church was right at the downtown where Daendels built a palace nearby. Today the palace has been transformed into the office for the Ministry of Finance.

Just a few months after the collapse, Dijkmans came up with the shop drawing. The construction of the church was officiated by the signing of the contract between Mgr. Claessens and a brick contractor named Leykam. The contract stated about the purchase of 3 billion pieces of custom made bricks.

The substructure works were started in medio of 1891. But just after a year of construction, the whole project was suffered from funding drawback which forced it to be put on halt. Adolf Heuken said in his book, “Gereja-gereja Tua di Jakarta,” Dijkmans had to return to the Netherlands broken hearted and it had worsened his already poor state of health that made him never returned to finish what he had started. Dijkmans passed away in 1922, in the Netherlands, and never had a chance to see the church finished. It took another six years to re-establish the process from all over again, while, in the meantime, the parish had their mass delivered in the garage of the presbytery.

The construction was resumed in 1898 after Mgr. E. Luypen SJ run a fundraise from the Netherlands and asked M. J. Hulswit to take over the suspended construction. Hulswit finished the construction in three years with the help from unskilled local laborers and the Chinese carpenters for the roof works. The newly finished church was then named De Kerk van Onze Lieve Vrouw ten Hemelopneming and consecrated on April 21, 1901, by a festive celebration that was attended by the high-ranks Dutch officials and the Catholics all over Batavia.

In the times of Japanese occupation, the whole building was painted in green to protect it from the night ambush by the Allies. The green paint was retained until the conservation in 1988 took place. This conservation also changed the color of the wall into a cement-like color and replaced the roof cover into copper shield.


Steel Tower and the state of Fine Arts

The Cathedral of Jakarta is unmistakably the finest Neo Gothic church in Indonesia to date. It incorporates the basilican principles by taking the 60 meter long cruciform plan and the existence of Narthex, Nave, twin Aisles, and an Apse with its semi-circular plan.

The interior has a beautiful wooden ribbed vault ceilings which raises 17 meter high from the ground floor. The timber vault was chosen to mitigate the risk of earthquake which Indonesia is prone to. The wall of the church was made out of a thick bricklayer that acts as the bearing wall. The layers are plastered in a certain way that it has an expression of natural stones. The wide-span structure of the roof was made out of teak and done by the Kwongfu carpenters. They fully realized about their expertise that they inscribed their names upon the teaks using Mandarine letters.

The Jakarta Cathedral has 3 towers which were named after the saints. The front towers are the Tower of David and the Tower of Ivory. While the central tower was named Angelus Dei. All of these three has incorporated steel structure. There is one big Rose Window between the east towers which in Catholic is called Rosa Mystica and it symbolizes the divine Mother Mary.

The interior of the church is adorned by some of the finest works of art. One of them is a series of paintings about Via Crucis, or the Way of Sorrows which was made from ceramics. The paintings were done by Th. Moelkeboer in Netherlands and has a style of Amsterdamsche School. They were installed in 1911. Another work of art is a beautiful podium that was made by Te Popel and Stoltefuβ (Den Haag), installed in 1905. At the other part of the church there is an altar of St. mary (1915) and the altar of St. Josef (1922) which depicts St. Josef protecting the church. These two are flanking the main altar which is a gift from a Jesuit church in Groningen in 1956. The cathedral still possesses many historical arts and relics that are showcased regularly in the church museum.


Menara Baja dan Karya Seni Tinggi
Denah dasar katedral masih meniru denah Basilika dengan sempurna. Berbentuk salib dengan panjang 60 meter, pada bagian depan terdapat narthex yang berfungsi sebagai lobi, kemudian bagian selanjutnya terdiri dari lorong tengah (nave) yang diapit lorong samping (aisle) memanjang yang berujung pada altar yang berbentuk setengah lingkarang (apse).
Langit-langitnya menerapkan bentuk kubah berusuk (ribbed vault) dengan ketinggian 17 meter dari permukaan lantai dan terbuat dari kayu. Pemilihan material ini untuk mengantisipasi gempa bumi yang sering terjadi di Indonesia. Dinding katedral ini terbuat dari batu bata tebal dan berfungsi sebagai dinding pemikul beban. Dinding tersebut kemudian diplester dan diberi motif seperti batu alam. Kuda-kuda kayu jati berbentang lebar, dikerjakan tukang-tukang Kwongfu. Sadar akan harga diri profesinya, mereka dengan bangga membuat inskripsi tanda namanya dengan memakai huruf Mandarin.

Gereja Katedral Jakarta memiliki tiga buah menara yaitu Menara Daud dan Menara Gading pada sisi timur dan Menara Angelus Dei pada bagian atas pusat denah salib. Ketiga menara ini terbuat dari baja, di antara kedua menara sisi timur terdapat sebuah Jendela Roseta (Jendela Mawar) khas gereja Gotik yang melambangkan Rosa Mystica, yakni Bunda Maria.

Interior katedral dipenuhi karya seni yang tinggi. Salah satunya adalah sebuah lukisan dinding dari keramik karya Th. Moelkeboer, yang menceritakan tentang jalan salib. Lukisan tersebut dibuat di Belanda dengan gaya mendekati Amsterdamsche School dan ditempatkan di gereja ini pada tahun 1911. Mimbar dengan ukiran yang sangat indah dibuat oleh Te Popel dan Stoltefuβ (Den Haag), dipasang pada tahun 1905. Terdapat juga altar St. Maria (1915) yang menggambarkan pengangkatan Bunda Maria ke surga dan altar St. Josef (1922) yang memperlihatkan Santo Josef melindungi sebuah gereja; masing-masing berada pada bagian sisi samping altar di muka. Altar utama yang ada saat ini merupakan hadiah dari gereja Jesuit di Groningen pada tahun 1956, walaupun pengerjaannya sudah dilakukan sejak abad 19. Banyak benda-benda bersejarah milik gereja saat ini disimpan dan dipamerkan di Museum Katedral.

Experience Years of experience: 8. Registered at ProZ.com: Aug 2020.
ProZ.com Certified PRO certificate(s) N/A
Credentials N/A
Memberships N/A
Software N/A
Bio

14 years experience in translation, editorial, as well as copy writing of art, architecture, and construction industry.

4 year experience in social media strategist and willing to push my boundaries more.

Keywords: English, Indonesian, French, art, architecture, construction, design, legal, social, science


Profile last updated
Sep 2, 2020






Your current localization setting

English

Select a language

All of ProZ.com
  • All of ProZ.com
  • Term search
  • Jobs
  • Forums
  • Multiple search