Leave a comment

Puisi

20180614_211453

Saya memilih buku ini sebagai hadiah lebaran. Hadiah dari saya untuk saya šŸ˜. Ini adalah buku puisi ketiga yang pernah saya beli dan buku puisi kedua karya M. Aan Mansyur yang saya punya. Buku puisi pertama yang saya beli, lupa judul dan pengarangnya siapa, sebenarnya bukan untuk saya tetapi titipan seorang teman.

Ada sedikit cerita tentang puisi dan saya. Saya sebenarnya punya kenangan yang bisa menyebabkan saya tidak menyukai puisi. Tapi punya relasi canggung dengan suatu hal bukan berarti tidak memungkinkan untuk menyukai hal tersebut.

Waktu itu, pelajaran Bahasa Indonesia mengharuskan setiap siswa untuk membacakan puisi di depan kelas. Saya yang malu dan datar harus mengulang beberapa kali. Intonasi suara saya memaksa saya berkali kali harus mengulang membaca puisi karena tidak sesuai dengan kemauan guru saya. Saya tidak menekan kata, tidak menggebu gebu, suara saya tidak ikut perasaan kata yang dibawa dalam puisi Aku karya Chairil Anwar. Saya mengulang tapi tidak berubah. Saya berpihak pada malu dibanding nilai.

Kembali ke puisi. Buku puisi pertama yang saya beli atas kemuan sendiri adalah Sebelum sendiri. Mungkin kata ‘sendiri’ dan sampul buku biru langit yang membuat saya tertarik. Setelah membaca isinya saya suka dengan penggunaan katanya dan makna kata yang dalam, kabur, dan membuat saya berfikir maksudnya apa. Saya kesulitan mencerna maknanya dan mungkin itu yang membuat saya suka.

Buku puisi berjudul Melihat Api Bekerja karya M. Aan Mansyur sangat indah menurut saya. Tadinya saya mau membeli versi digitalnya. Tapi karena isinya yang tidak hanya rangkaian kata tapi ada juga ilustrasi gambar yang indah, yang membuat saya memutuskan mencari versi fisiknya. Puisinya menarik, walau banyak yang membuat saya mengerutkan dahi karna saya tidak faham maksudnya. Isinya yang menurut saya tentang kehidupan sehari-hari, tidak hanya tentang cinta, yang membuat saya tidak menyesal membeli buku ini.

20180614_211534

Salah satu puisi yang saya suka dari buku ini adalah Ketidakmampuan.

Ketidakmampuan

Mereka yang asing dan tidak

Mengenal namaku adalah

kekasihku — termasuk langit, bunga bunga,

buku-buku tua, pagi, segelas kopi, dan anak kecil.

 

Aku tidak ingin mencintai

pahlawan — mereka yang

pandai dan mampu mengubah

Penderitaan orang lain jadi

senyuman. Aku tidak mau melihat

orang yang kucintai berubah jadi

patung di taman kota atau poster

di dinding sekolah dan diabaikan.

 

 

Selamat berlebaran semua…

 

 

Advertisements
Leave a comment

Internet

I waste my time, really, too much…
No more… No more…

 

Leave a comment

Have we…

Kita mencaci pemerintah karena banjir, tapi sudahkah kita membuang sampah di tempatnya?

Kita mencaci pemerintah karena korupsi, tapi kita berdemo dengan mengkorupsi waktu kuliah kita dan mengkorupsi hak pengguna jalan

Kita menuntut murahnya biaya pendidikan, tapi sudahkah kita belajar dengan giat?

 

*hanya sebuah renungan

Leave a comment

Crawl Isi Tabel

Well. jadi saya lagi belajar bagaimana cara ngambil teks dari halaman website. Saya belajarnya dari tutorial yang disediakan sama analyticsvidhya.com. Tutorialnya bisa cek di sini. Dari tutorial tersebut ada part yang membahas bagaimana ekstrak tabel dari halaman website. Contoh kasus dari tutorial tersebut adalah halaman website ini.

Ada satu kendala yang saya temui ketika menjalankan code tutorial. Pada halaman website terdapat beberapa tabel dan dua tabel awal memiliki nama class yang sama. Sehingga ketika saya ingin mengambil isi tabel ke dua kode yang diberikan di tutorial tidak bisa berjalan sebagaimana mestinya.

Bagaimana cara mengambil isi tabel ke dua tersebut? Setelah tanya om google maka ketemu kodenya seperti ini :

Selain menggunakan keyword class dari tabel, kita bisa mendefiniskan tabel keberapa yang mau kita crawl. Contoh pada code di bawah adalah yang ini :

all_tables = soup.find_all(‘table’)[3]

from bs4 import BeautifulSoup
import urllib.request as urllib
import pandas as pd

# definisikan url halaman yang akan diekstrak
wiki = "https://en.wikipedia.org/wiki/States_and_union_territories_of_India"

# panggil halaman web dan simpan ke variabel page
page = urllib.urlopen(wiki)

# Parse html yang ada pada page dan simpan dalam bentuk bs format
soup = BeautifulSoup(page)

all_tables = soup.find_all('table')[3]
#print(all_tables)
#Generate Lists
A=[]
B=[]
C=[]
D=[]
E=[]
F=[]
G=[]

for row in all_tables.findAll("tr"):
    cells = row.findAll("td")
    states = row.findAll("th")
   
    if len(cells) >= 5:  # Only extract table body not heading
        A.append(cells[0].find(text=True))
        B.append(states[0].find(text=True))
        C.append(cells[1].find(text=True))
        D.append(cells[2].find(text=True))
        E.append(cells[3].find(text=True))
        F.append(cells[4].find(text=True))
        G.append(cells[5].find(text=True))

df = pd.DataFrame(A, columns=['Number'])
df['State/UT']=B
df['Admin_capital']=C
df['Legislative_Capital']=D
df['Judiciary_Capital']=E
df['Year_Capital']=F
df['Former_Capital']=G
print(df)
Leave a comment

Aspect-Based Sentiment Analysis

Well, Sudah pernah dengar sentiment analysis? Apa itu? Silahkan buka google dan engkau akan menemukan jawabannya.

Sentiment analysis lagi mencuri perhatian saya sekarang ini dan berencana untuk riset di bidang ini. Salah satu paper yang saya baca minggu ini berjudul “Aspect based Sentiment Oriented Summarization of Hotel Review” dari Nadeem Akhtar dkk telah memberikan saya beberapa titik terang *lebey :P. Jadi, dari baca paper ini saya tahu bahwa ternyata oh ternyata judi itu haraaam ada beberapa tools ataupun library yang bisa sangat membantu dalam riset di bidang ini, khususnya yg aspect-based.

Apa saja tools atau library itu? Okay mari saya beritahu

  1. beautifulsoup dan urlib
    Dua library ini jalan di Python dan digunakan sama pak Nadeem dan kawan-kawan untuk membangun scrappernya. Scarapper di sini digunakan untuk mengambil data review hotel dari situs Tripadvisor. Saya juga belum coba bikin crawler pake’ dua lib ini tapi sudah install. Nanti kalau sudah coba Insya Allah saya share di blog ini. Doakan penghuni blog jadi rajin ya :D.
  2. MALLET
    Nah kalau MALLET ini dia adalah tool yang java based dan digunakan untuk topic modelling. Saya juga sudah install tapi belum coba pakai jadi belum bisa berkata apa-apa tentang tool ini.
  3. NLTK
    NLTK merupakan library di python untuk text processing. Banyak fungsi-fungsi text processing yang dimuat di library ini.
  4. Gensim
    Kalau menurut pemahaman saya dari baca paper di atas, Gensim ini fungsinya sama seperti MALLET, bedanya Gensim ini Python based.
  5. LDA
    Kalau LDA ini bukan lib atau tool. Ini juga hal baru bagi saya, setelah baca paper saya tahu bahwa LDA ini merupakan salah satu algoritma untuk topic modelling. Kabar baiknya buat pengguna rapid miner, LDA bisa digunakan di rapid miner dengan install lib bernama “corpus linguistics plugin LDA”.
    Sekian dari saya… Btw, I cut my finger this morningĀ  (mohon diabaikan, lagi cari perhatian), jadi ada sedikit usaha lebih dalam mengetik postingan ini. Mohon masukan dan koreksinya kalau-kalau ada info yang keliru. Terima Kasih …